Sesja 33: Nowe technologie, sztuczna inteligencja a prawa człowieka (BLOK C)
- Trzeba dbać o ochronę praw człowieka w kontekście nowych technologii
- Nie powinno się wprowadzać żadnej etyki dla samochodów autonomicznych
- Trzeba sprawdzać i kontrolować algorytmy, licząc się z tym, że prawdziwie przejrzyste będą one tylko dla specjalistów. Trzeba jednak realizować prawo do bycia poinformowanym
- Maszyny mogą dla nas zbierać dane; problemem będzie, gdy będą za nas podejmować ważne decyzje. A algorytmów nie mogą wyjaśniać inne algorytmy.
Tematem dyskusji była przejrzystość algorytmów rządzących nowymi technologiami i możliwe zagrożenia, także wobec praw człowieka.
Nowe technologie zmieniają nasze życie. Godzimy się z tym, akceptujemy, korzystamy z możliwości, które dają, ułatwiamy sobie życie codzienne jeśli chodzi o komunikację, rozrywkę, usługi publiczne czy transportowe. Sztuczna inteligencja wkracza powoli do zakładów pracy, zastępuje pracowników, automatyzuje różne procesy. Jednak nie pozostaje to bez wpływu na prawa człowieka. Poświęcamy naszą prywatność na rzecz bezpieczeństwa i wygody. Stopniowo likwidowane są niektóre miejsca pracy. Wreszcie zaczynamy stawiać pytania etyczne jak dalece sztuczna inteligencja może zastępować człowieka oraz czy człowiek może ustalić bariery jej rozwoju. Jak nigdy przedtem rzeczywistość z filmów science fiction wymaga już teraz od nas odpowiedniej refleksji. Czy dotychczasowe instrumenty prawne okażą się do tego wystarczające? Czy zdążymy z odpowiedzią na główne pytania i wyzwania etyczne zanim nowe technologie rozwiną się do tego stopnia, że nie będziemy mogli już wiele zrobić?
Paneliści:
Aleksandra Przegalińska - doktoryzowała się w dziedzinie filozofii sztucznej inteligencji na UW, adiunkt w Center for Research on Organizations and Workplaces w Akademii Leona Kozminskiego
Krzysztof Izdebski - prawnik, członek zarządu i dyrektor programowy Fundacji ePaństwo.
Kamil Mamak - dr prawa, filozof i pasjonat nowych technologii.
Filip Konopczyński - prawnik i kulturoznawca, specjalista Pracowni Badań Społecznych Naukowej i Akademickiej Sieci Komputerowej (NASK).
Katarzyna Szymielewicz - prawniczka specjalizująca się w problematyce praw człowieka i nowych technologii. Współzałożycielka i prezeska Fundacji Panoptykon.
Relacja z panelu
Kamil Mamak: Wykorzystywanie algorytmów do sterowania autonomicznymi samochodami może rodzić liczne problemy prawne. Zwłaszcza, jeśli preferowałyby osoby znajdujące się poza pojazdem kosztem tych, które w nim są. Nie mówiąc nawet o preferencjach typu kobieta czy mężczyzna.
Aleksandra Przegalińska: Nie ma i nie będzie żadnych moralnych norm dla samochodów autonomicznych. Środowisko naukowe nie jest w stanie ich wypracować. Traumatyczne dla moich studentów było doświadczenie testu „dylematu wagonika” (czy w chwili wypadku drogowego, gdy możemy wybrać, jak skręcimy kierownicę i czy poświęcimy raczej osobę starszą, by nie zabić młodszej, czy zabić mężczyznę czy kobietę). Notabene w kulturach azjatyckich w tym teście była preferencja, by chronić starszych, a nie młodszych. Widzimy, że te maszyny są skuteczne, jeśli chodzi o zadania. Chciałoby się to stosować np. w diagnostyce medycznej, ale mamy kłopot, co dalej z tym robić.
Filip Konopczyński: Oczekiwanie, że można ustalić jednolitą etykę, jest zbyt daleko idące. To nie może być ostatecznie rozstrzygnięte, choć jest to starsze niż sama sztuczna inteligencja.
Przewortnie mówiąc, chciałbym, aby mój samochód miał osobowość prawną i to on odpowiadał, gdybym spowodował wypadek.
Nie jest niespodziewaną konsekwencją, że to roboty dziś zabijają. Wiele nowych technologii to wynik stosowania komercyjnego wcześniejszego inwestycji w technologie wojskowe.
Katarzyna Szymielewicz: Produkujemy olbrzymie ilości nowych technologii. Jesteśmy skazani na to, że to maszyny będą dla nas zbierać dane. Problem zaczyna się, gdy będzie to wkraczać na poziom decyzji. Bo decyzje o reklamach w sieci jesteśmy w stanie pozostawić samej sieci. Ale jak wyobrażamy sobie, że maszyny będą opiekować się osobami starszymi? Jest mnóstwo sfer w których algorytmy zwolnią nas z dylematów. Dlatego musimy tu ustalić granice. Możemy skonstruować taki algorytm, który będzie oceniał dla nas ten pierwszy algorytm – np., gdy okaże się, że ludzie w czerwonych autach częściej mają wypadki drogowe. Chodzi o to, by nie mieć takiego systemu citizen scoringu ludzi, jak w Chinach.
Krzysztof Izdebski: Facebooka używano do mordów w Birmie. Ludzki komponent zawsze będzie obecny. A jeśli maszyny przejęłyby nad nami kontrolę, to może byłoby i lepiej, jeśli mówimy o tej okrutnej historii ludzkości. Ważnym „bezpiecznikiem” będzie przejrzystość danych - tak, aby same algorytmy nie wyjaśniały innych algorytmów. Bo np. z algorytmów w Australli wynikało, że najniebezpieczniej jest w okolicach komisariatów policji – bo tam ludzie zgłaszają informacje o przestępstwach. Teoretycznie sztuczna inteligencja mogłaby przyspieszyć sprawy sądowe, ale jakim kosztem.
Najciekawsze głosy w dyskusji
Ludzie muszą być lepszymi ludźmi, by stosować nowe technologie. I bez autonomicznych samochodów wiemy co robić, żeby było bezpieczniej, a nie robimy tego. Nie musimy tu wymyślać etyki.
Konkluzje
Trzeba dbać o ochronę praw człowieka w kontekście nowych technologii
Nie powinno się wprowadzać żadnej etyki dla samochodów autonomicznych
Trzeba patrzeć na ręce algorytmom, choć ich przejrzystość zawsze będzie elitarna. Chodzi o realizację prawa do bycia poinformowanym
System losowania sędziów w Polsce powinien być jasny – to kwestia tylko woli politycznej