W dzisiejszej epoce cyfrowej sztuczna inteligencja i duże dane pomagają ludziom poruszać się po świecie w nowy sposób. Podczas gdy wielu naukowców korzysta z tych nowych narzędzi w celu wprowadzania innowacji i rozwijania różnych dyscyplin, nieliczni, jak Fred Fonseca, podchodzą do tych postępów z innej perspektywy.

„Jest nowa dziedzina zwana etyką danych ”, powiedział Fonseca, profesor nadzwyczajny w College of Information Sciences and Technology w Penn State oraz 2019-2020 w Fellow w Rock Ethics Institute w Penn State. „Zbieramy dane i używamy ich na wiele różnych sposobów. Musimy zacząć myśleć więcej o tym, jak z nich korzystamy i co z tym robimy”.

Podchodząc do pojawiającej się technologii z filozoficzną perspektywą, Fonseca może badać dylematy etyczne związane z gromadzeniem, zarządzaniem i wykorzystywaniem informacji. Wyjaśnił, że wraz z pojawieniem się dużych danych , na przykład, wielu naukowców i analityków rezygnuje z formułowania hipotez na rzecz umożliwienia wnioskowania na temat konkretnych problemów.

„Zazwyczaj w nauce teoria kieruje obserwacjami. Nasze rozumienie teoretyczne kieruje zarówno tym, co wybieramy do obserwacji, jak i tym, w jaki sposób je obserwujemy” – wyjaśnił Fonseca. „Teraz, przy tak dużej ilości dostępnych danych, klasyczny obraz budowy teorii nauki jest zagrożony odwróceniem, a dane są sugerowane jako źródło teorii w tzw. Nauce opartej na danych”.

Fonseca podzielił się tymi przemyśleniami w swoim artykule „Cyber-ludzkie systemy myśli i zrozumienia”, opublikowanym w kwietniowym wydaniu czasopisma Stowarzyszenia Nauk Informacyjnych i Technologii . Fonseca jest współautorem artykułu z Michaelem Marcinowskim, College of Liberal Arts, Bath Spa University, Wielka Brytania; i Clodoveu Davis, Wydział Informatyki, Universidade Federal de Minas Gerais, Belo Horizonte, Brazylia.

W artykule naukowcy proponują koncepcję, która ma przełamać przepaść między myśleniem teoretycznym a a-teoretyczną nauką opartą na danych.

„Zamiast podchodzić do konkretnego zbioru dużych danych, aby odpowiedzieć na już opracowane pytanie, naukowcy są zachęcani do angażowania się w dane w bardziej przemyślany i natychmiastowy sposób, wykorzystując same dane jako narzędzie do badań naukowych ” – wyjaśniają naukowcy . „Natychmiastowa korzyść polegałaby na pomocy naukowcom w zarządzaniu i reagowaniu na zalew danych, które w przeciwnym razie przytłoczyłyby ich moce agresywne i decyzyjne”.

Fonseca posłużył się metaforą porównywania danych lub sztucznej inteligencji z trzciną, której niewidoma osoba może użyć do poruszania się po świecie.

„Naukowcy wykorzystują istniejące dane, aby odczuwać i współdziałać z naprawdę istniejącym światem, angażując dane nie jako reprezentację, ale jako instrument ułatwiający ich empiryczne myślenie” – wyjaśnia. „Podobnie jak laska, dane są wykorzystywane jako rozszerzenie ich zmysłów, a ich rozumienie świata jest dynamicznie sprzężone z masowymi strumieniami danych znalezionych w nauce opartej na danych”.

Proponuje praktyczne przekształcenie sposobu, w jaki analitycy, praktycy i naukowcy myślą o swojej pracy. Przy wielu postępach w sztucznej inteligencji i maszynach, które podejmują bardziej ludzkie działania i decyzje, Fonseca powiedział, że ważne jest, aby zastanowić się nad wpływem technologii na życie codzienne.

„Technik nie odchodzi” – powiedział. „Musimy się nad tym zastanowić i lepiej zrozumieć, abyśmy mogli podejmować świadome decyzje”.

Aby zilustrować wyzwania etyczne, jakie może przynieść nowa technologia, przytoczył niedawny artykuł w Washington Post na temat dostawców usług medycznych i firm technologicznych wykorzystujących sztuczną inteligencję do przewidywania wskaźników depresji i prawdopodobieństwa samobójstwa. Technologia skanuje dane medyczne i posty z mediów społecznościowych pod kątem języka i zachowań samobójczych. Niektóre dane są przekazywane lekarzom lub innym osobom, które mogą interweniować. Ale czy te same dane mogą wpaść w ręce marketerów lub innych stron trzecich?

„Chociaż możliwe jest [tworzenie tych algorytmów], może nie powinniśmy tego robić. Ponieważ już tam jest, ludzie będą z niego korzystać i będą go używać źle”, powiedział. „Oto pytania dotyczące nauki, o których musimy zacząć myśleć.

„Chodzi o wartości” – dodał. „Możemy mieć wszystkie rodzaje danych, ale musimy wiedzieć, jak z nich korzystamy”.

Share: