Robotyka a Moralność - Gdzie Istnieją Granice?

Robotyka a Moralność - Gdzie Istnieją Granice?

Temat aktualny i z pewnością będzie na tej aktualności jeszcze bardziej zyskiwał. To co kiedyś rozpatrywane było jako ciekawostka ze świata science fiction, teraz rozpatrywane jest już tylko jako science. W tym artykule opowiem Wam o tym, jak moralność robotów może wyglądać, na co powinniśmy myśląc o niej zwrócić uwagę i jak wielkie dylematy nas czekają.

Moralność Robotów

Futurolodzy zastanawiali się nad tym już dziesiątki lat temu. Naukowcy i przeciętni ludzie zastanawiają się od niedawna. Czy roboty mogą mieć moralność? Jeśli tak, to jak ma ona wyglądać i na czym bazować? Przecież każdy z nas swoją moralność opartą na innych źródłach. Pytania ważne i prędzej czy później będziemy zmuszeni na nie odpowiedzieć. Nie ustają przygotowania do stworzenia sztucznej inteligencji. Nikt nie myśli kategoriami „czy uda się ją osiągnąć”, tylko „kiedy to zrobimy”. Pierwsze etapy mamy już za sobą: pojawiają się roboty o częściowej autonomii, bazujące na wykorzystaniu stosunkowo prostych algorytmów. Wciąż jednak wykonują one najczęściej tak proste zadania, że nikt nawet nie myśli o wgraniu im do systemu pliku Moralność.exe. Winda jeżdżąc w górę i w dół, robi to na bazie prostych wyliczeń – zawsze zachowa się tak samo, bez względu na to, kto bardziej potrzebuje między piętrowej podwózki: ratownicy pogotowia chcący dostać się do umierającego, czy dostawca pizzy podliczający właśnie swój napiwek. Nikogo jednak taka sytuacja nie dziwi. A może powinna zacząć?

Etos windy?

Winda to oczywiście dosyć skrajny przykład braku użycia moralnego myślenia przez maszynę. Rozpoczynając pracę nad tym artykułem, myślałem o tworach bardziej skomplikowanych. Chociażby takich jak autonomiczne samochody, czy wojenne maszyny. Zatrzymajmy się jednak chwilę przed rozważaniami, w jakim dokładnie obszarze robotyka będzie musiała odpowiedzieć na pytanie o moralność, a postawmy pytanie: w jaki sposób powinna?

sztuczna inteligencja


42" Telewizory już od 1190zł

Źródła wartości

Jeżeli chodzi o ludzi, to źródeł moralności jest niemal nieskończenie wiele, choć, co ciekawe – często podstawy są podobne. Bazą pod nasze etyczne założenia, może być na przykład religia, rodzina, filozofia czy prawo, w tym przede wszystkim prawo naturalne. Futurolodzy myśląc o rozwiązaniach dla robotów, często te rozważania dosyć mocno uogólniali do stwierdzeń odnoszących się do kontaktów jedynie na linii maszyna-człowiek.

Prawa robotów Asimova

Jednym z pierwszych, który postanowił stworzyć hipotetyczne prawa rządzące tymi relacjami, był Isaac Asimov. Był to amerykański pisarz pochodzenia rosyjsko-żydowskiego, znany przede wszystkim (mimo profesury w przedmiocie biochemii), jako znakomity autor powieści science fiction.

Asimov przedstawił owe prawa w opowiadaniu pt. "Zabawa w berka" z 1942 roku, natomiast prawo „zerowe” (najważniejsze ze wszystkich) opisał w opowiadaniu „Roboty i Imperium” Brzmiały one następująco:

  1. Roboty nie mogą skrzywdzić ludzkości w żaden sposób: czy poprzez działanie, czy też zaniechanie.
  2. Roboty nie mogą skrzywdzić człowieka w żaden sposób: czy poprzez działanie, czy też zaniechanie.
  3. Roboty muszą być posłuszne człowiekowi, chyba, że rozkazy człowieka są sprzeczne z prawem pierwszym.
  4. Roboty muszą chronić siebie, jeżeli nie jest to sprzeczne z pierwszym bądź drugim prawem.

Najważniejszą krytyką, pod którą te prawa były poddane, była asymetria stosunków między człowiekiem a maszyną, która w konsekwencji mogłaby doprowadzić do buntu maszyn. Dlatego ciężko by było wyobrazić sobie stosowanie tych praw w przypadku maszyn zdolnych do posiadania samoświadomości i nieograniczonych swoją inteligencją. Oczywiście można by usprawnić te prawa, np. obowiązkiem naprawy organizmu cybernetycznego przez człowieka, w przypadku poświęcenia się go na rzecz organizmu ludzkiego (którego uleczenie mogłoby być znacznie trudniejsze). Są to jednak dosyć dalekie dywagacje i w pierwotnym ujęciu tych praw nie ma o tym mowy.

AI sztuczna inteligencja

<< Miej więcej czasu na przeglądanie Videotestów - sprawdź odkurzacz automatyczny! >>

Teoria przyjaznej sztucznej inteligencji

Eliezer Yudkowsky, amerykański badacz AI (Artificial Intelligence – Sztuczna Inteligencja), przedstawił swoją wizję koegzystencji ludzi i robotów, wpisującą się w nurt równego traktowania obu tych grup, z jednoczesnym, pozytywnym i przyjaznym nastawieniem maszyn do ludzkiego gatunku. Zakłada ona, że AI nie będzie podległa ludziom, lecz stanie się kompletnie odrębnym gatunkiem, będącym w stanie współpracować z homo sapiens. Trzeba jednak podjąć się odpowiednich wysiłków, już na etapie konstruowania sztucznej inteligencji, aby zaszczepić w niej życzliwe odnoszenie się w stosunku do jej twórców. Co więcej, ze względu na to, że z czasem osiągnięcia AI będą coraz bardziej oddalały się od możliwości człowieka, należy zadbać o to, aby jej cele były koherentne z celami ludzkości.

Samochody, odkurzacze czy roboty wojenne?

Wróćmy odrobinę do trochę mniej odległego scenariusza. W końcu już w tym momencie trwają intensywne i zaawansowane badania nad stworzeniem autonomicznego samochodu znanego z filmów Sci-Fi. W sieci można znaleźć filmiki, w których samochody marki Tesla rzeczywiście są w stanie kierować pojazdem bez pomocy człowieka. Przyszłość jak widać dzieje się na naszych oczach.

Kolejnym przykładem wykorzystania AI są roboty wojenne. Ograniczona sztuczna inteligencja o nazwie SKYNET, co potwierdzają wycieki rządowych danych w Stanach Zjednoczonych, istnieje i jest wykorzystywana przez służby specjalne tego kraju wyszukiwania osób które mogą mieć powiązania ze światowym terroryzmem. Choć to wszystko brzmi świetnie, budzi ogromne kontrowersje. Przykładem jest przypadek dziennikarza stacji Al-Jazeera – Ahmada Zaidana, który został fałszywie zidentyfikowany przez SKYNET jako prawdopodobny członek dwóch różnych grup terrorystycznych.

Dylematy moralne

Nawet jeśli uda się nam stworzyć sztuczną inteligencję, która będzie nam przychylna, to co będziemy mogli powiedzieć o jej moralności? Czy wymyśli ją sobie sama, np. bazując na różnych źródłach właściwych ludziom? A może jednak nie będzie całkowicie autonomiczna i to my narzucimy jej tę moralność? Jeżeli tak, to jaką? Pytania bywają trudne, a odpowiedzi jeszcze trudniejsze.

AI SI sztuczna inteligencja


Jaki Dysk Zewnętrzny USB 3.0 Wybrać? Ranking Modeli do 300 zł

Dylemat wagonika

Dylemat ten, zwany również dylematem zwrotnicy, to swoisty eksperyment myślowy stosowany przede wszystkim w etyce. Brzmi on następująco: wagonik który nie posiada hamulców, pędzi prosto na grupę pięciu osób przywiązanych do torów przez szaleńca. Masz jednak możliwość zmienić tor wagonika poprzez przestawienie zwrotnicy. Niestety, do drugiego torowiska przywiązany jest jeden człowiek, więc tą decyzją możesz uratować 5 żyć i zabić jego, albo zaniechać działania i spowodować śmierć 5-ciu osób.

Łatwo wyobrazić sobie podobną sytuację w przypadku samochodów autonomicznych. Mokra nawierzchnia, słaba widoczność, samochód autonomiczny dostrzega zagrożenie i musi podjąć wybór: albo zmieni tor jazdy wjeżdżając w grupę osób idących poboczem, albo zderzy się czołowo z tirem nie dając szans swoim pasażerom. Jak powinien w tym przypadku zareagować?

Innym przykładem są działania wojenne: czy maszyna może zdecydować czy powinna zabić daną osobę czy nie? Jeśli tak, to na jakiej podstawie? Być może dojdziemy do momentu, gdy maszyny będą miały bardziej jasny obraz sytuacji niż człowiek, a dodatkowo będą świadome norm i praw wojennych, których nie będą mogły złamać. Wówczas, być może, wojny staną się, jakkolwiek antagonicznie to brzmi: bardziej humanitarne.

Podsumowanie

Jak już wyżej wspominałem, sztuczna inteligencja i jej meandry to ciężki orzech do zgryzienia. Pytania, na które człowiek będzie musiał odpowiedzieć to prawdziwe brzemię, które będziemy musieli pewnie prędzej niż później z siebie zrzucić. Nie ma jasnych wytycznych co jest w tym przypadku najlepsze, dlatego możemy poczuć się trochę jak dzieci we mgle. Choć z pewnością, przez co niektórych, nie tyle będzie to odbierane jako problem, lecz jako okazja do zabawy w Boga.

PS. Przeczytaj również nasz felieton o dramacie prof. Bralczyka - o tutaj!

Obejrzyj inne materiały na VideoTesty.pl
blog comments powered by Disqus
more