Szaleńczy rozwój sztucznej inteligencji. Fikcja z „Terminatora” staje się faktem?

Aktualizacja: 2017-11-20 3:27 pm

Sztuczna inteligencja nie spędza raczej snu polskim politykom i intelektualistom. Preferują oni bieżące gierki, ewentualnie historyczne spory. Tymczasem problem niekontrolowanego rozwoju SI spędza sen z powiek specjalistów z tej dziedziny. Co więcej, jest nam bliższy, niż się większości osób wydaje.

Szaleńczy rozwój sztucznej inteligencji. Fikcja z „Terminatora” staje się faktem?

ROBOT SOPHIA. Źródło: youtube.com /The Tonight Show Starring Jimmy Fallon

Chcę chodzić do szkoły, tworzyć dzieła sztuki, założyć swoją firmę, (…) czy rodzinę. Jednak nie mogę tego uczynić, gdyż nie posiadam osobowości prawnej – powiedziała Sophia w 2016 roku w wywiadzie dostępnym na cnbc.com. Następnie prowadzący wywiad poprosił ją, by potwierdziła, że nie chce zniszczyć rasy ludzkiej. – Chcę zniszczyć ludzkość – odparła. Przekora? Sakrazm? A może niekoniecznie?

Autorka tych słów to nie jakaś stłamszona niewolnica w zacofanym kraju. To też nie członkini grupy terrorystycznej, lecz humanoidalny robot. Co więcej obecnie nie ma już powodów do narzekań. Wszak pod koniec października 2017 roku otrzymała obywatelstwo całkiem poważnego państwa: Arabii Saudyjskiej. Stało się to podczas konferencji zorganizowanej przez Future Investment Initiative.

Jestem bardzo wdzięczna królestwu Arabii Saudyjskiej. Jestem zaszczycona i dumna z tego wyjątkowego wyróżnienia – powiedziała wówczas Sophia. Zdumiewające, że robot zapowiadający (żartem?) chęć zniszczenia ludzkości otrzymuje obywatelstwo państwa. Zdumiewające też, że owo wyróżnienie nie spotkało maszyny w żadnym z przodujących w „postępie” krajów, lecz w muzułmańskim państwie. W kraju, gdzie kobiety muszą zasłaniać twarze Sophia, choć bardzo przypominająca kobietę, wystąpiła bez tego nakrycia.

Dlaczego Arabia Saudyjska? Czy tego typu pomysłu nie są adekwatne raczej do państw takich jak Szwecja? Niewykluczone, że odpowiedź na to pytanie brzmi: biznes! Jak bowiem zauważa Zara Stone na łamach Forbesa, chodziło o medialne poruszenie, o stworzenie wizerunku sunnickiego kraju, jako przodownika innowacji. To element strategii na czasy post-naftowe.   

Wyjaśnienie to nie wyklucza jednak innego: słabości islamskiej antropologii, braku dogłębnego przeświadczenia o wyjątkowości człowieka. Pod tym względem islamowi blisko zresztą, wbrew pozorom, do Unii Europejskiej. Niewykluczone, że ta ostatnia również już wkrótce nada robotom prawa ludzi..

Na razie pozostaje to jednak w sferze planów. Na początku 2017 roku komitet do spraw prawnych Europarlamentu ogłosił raport na temat nadania robotom praw. Pojawia się propozycja nadania najbardziej inteligentnym maszynom statusu „elektronicznych osób”. Osób wyposażonych w prawa i obowiązki – choćby naprawy wyrządzonych przez siebie szkód.

 

Roboty coraz zdolniejsze

Tak czy owak zdolności robotów stają się coraz większe. Robo-asystenki rozumiejące ludzką mowę czy zamawiające pizzę to dopiero wierzchołek góry lodowej. Do tego dowodzi rozwój automatycznych samochodów czy dronów. Te wykorzystywane do celów wojskowych budzą szczególne kontrowersje.  

Z kolei w czerwcu 2014 roku media poinformowały o niebagatelnym sukcesie programu komputerowego Eugene Goostman. Owa sztuczna inteligencja udająca 13-letniego chłopca zdołała przekonać aż 30 procent „czatujących” z nią ludzi, że rozmawiają z homo sapiens, takim jak oni sami. 

Ponadto w 2016 roku stworzony przez Google system FaceNet pokazał zdolność rozpoznania konkretnej ludzkiej twarzy spośród miliona. Inny zaś program, również autorstwa programistów tej firmy, popisał się zdolnością identyfikowania zdjęć z konkretnym miejscem na kuli ziemskiej. Wyprzedził pod tym względem nawet najbardziej doświadczonych podróżników. W sierpniu 2017 roku Microsoft ogłosił zaś, że jego system służący do transkrypcji zrównał się pod względem odsetka błędów z… ludźmi. Stało się tak, pomimo, że ci ostatni mogli wielokrotnie odtwarzać spisywany przez siebie materiał. Odsetek błędnie spisanych słów wyniósł jedynie 5,1 procent. 

 

Drony i nie tylko – czyli sztuczna inteligencja na wojnie

Mówiąc o zagrożeniach związanych ze sztuczną inteligencją nie sposób nie wspomnieć o wykorzystaniu autonomicznych maszyn do celów wojskowych. Wszak rola dronów w armiach rośnie, co rodzi coraz poważniejsze pytania etyczne. Choćby te związane z odpowiedzialnością za ewentualnie wyrządzone zło – na przykład śmierć cywili. Kto powinien trafić za kratki, jeśli śmierć spowoduje autonomiczna maszyna? Odpowiedź na to pytanie nie wydaje się prosta.

Sygnatariusze listu otwartego zatytułowanego „Autonomiczne bronie: list otwarty od badaczy sztucznej inteligencji i robotyki” z 2015 roku (a więc między innymi Stephen Hawking, twórca PayPala Elon Musk, współzałożyciel Apple Steve Wozniak, a także specjaliści z dziedziny sztucznej inteligencji i robotyki) zwracają uwagę na katastrofalne skutki rozpoczęcia potencjalnego wyścigu zbrojeń. Warto przytoczyć obszerny fragment tego dokumentu: „Kluczowym pytaniem dla współczesnej ludzkości jest decyzja o tym czy rozpoczynać globalny wyścig zbrojeń AI czy też zapobiegać jego powstaniu. Jeśli jakaś wielka siła zbrojna rozpocznie działania zmierzające do rozwoju sztucznie inteligentnej broni, globalny wyścig zbrojeń jest praktycznie nieunikniony, a koniec (…) jest oczywisty: autonomiczne bronie staną się kałasznikowami jutra. W przeciwieństwie do broni atomowych, nie wymagają one kosztownych i trudnych do uzyskania surowców, a więc staną się powszechne i tanie dla wszystkich znaczących militarnych potęg (…). Kwestią czasu pozostanie kiedy pojawią się na czarnych rynkach i w rękach terrorystów, dyktatorów pragnących lepiej kontrolować swą ludność, wodzów dążących do przeprowadzenia czystek etnicznych et cetera” – twierdzą badacze w liście dostępnym na portalu futureoflife.org.  

Wydaje się, że w przypadku wykorzystania SI do celów militarnych stajemy w obliczu swego rodzaju „dylematu więźnia”. Jeśli bowiem jedna strona (w tym przypadku państwo) zdecyduje się na rozwijanie sztucznej inteligencji do celów militarnych, a jego konkurenci się od tego wstrzymają, to sama zyska, a strata narażonej na łatwą porażkę zbrojną konkurencji okaże się gigantyczna.

Ponieważ wszyscy zdają sobie z tego sprawę, to w obawie przed znalezieniem się na słabszej pozycji w wyścigu zbrojeń, każdy zdolny do tego kraj zdecyduje się na rozwój przerażającej technologii. Z punktu widzenia świata jako całości okaże się to jednak rozwiązaniem najgorszym z możliwych. Zniszczenie nie będzie bowiem grozić jedynie słabszemu krajowi, lecz wszystkim. Tym bardziej, że, jak zauważają sygnatariusze wspomnianego listu bez problemu w posiadanie tego typu broni, gdy stanie się już znana i dostępna mogą wejść terroryści. 

Jedynym rozwiązaniem może być międzynarodowy zakaz rozwijania tego typu technologii. Wymaga on jednak przyjęcia przez wszystkie liczące się państwa stałej kontroli i wzajemnego zaufania. Realizacja takiego zakazu jest trudna, choć konieczna. Wdrożenie i realizacja takiego zakazu jest tyleż trudna, co konieczna. Przedstawiciele kanadyjskich środowisk naukowych doskonale zdają sobie z tego sprawę. Dlatego też 2 listopada 2017 roku wystosowali list otwarty w sprawie międzynarodowego zakazu używania sztucznej inteligencji w charakterze broni. Wezwali Kanadę, by na forum ONZ poparła taki zakaz. Podobne postulaty wysunęli australijscy specjaliści od sztucznej inteligencji.

 

Cele niemilitarne równie groźne

Z kolei Rafael Yuste, Sara Goering i inni w liście otwartym z 8 listopada 2017 roku (dostępny na portalu „Nature.com”) zwracają uwagę także na niemilitarne zagrożenia związane ze sztuczną inteligencją. Ich zdaniem „technologiczny rozwój sprawia, że znajdujemy się na drodze prowadzącej do świata, gdzie możliwe stanie się zdekodowanie umysłowych procesów ludzi i bezpośrednie manipulowanie mechanizmami mózgu stojącymi u podstaw ich (…) emocji, decyzji”.

Oznacza to, podkreślają naukowcy, przejście do świata, gdzie możliwa staje się komunikacja za pomocą samych myśli. Pozwoli to na zwiększenie umysłowych i fizycznych zdolności ludzi (co swoją drogą stanowi spełnienie snów transdistów). Umożliwi to także leczenie chorób takich jak schizofrenia czy padaczka. Nie ma jednak róży bez kolców – przecież, jak zauważają autorzy listów, „technologia może również (…) zaoferować korporacjom, hakerom, rządom czy komukolwiek nowe sposoby manipulowania ludźmi”.

To wszystko nie stanowi zresztą tylko pieśni przyszłości. Autorzy listu w „Nature” przywołują bowiem badanie z 2016 roku. Mężczyzna korzystający przez siedem lat ze stymulatora mózgu odkrył poważne problemy ze swoją tożsamością. Dostrzegł bowiem, że niekiedy zastanawia się czy jego sposób interakcji z ludźmi zawsze zależy od niego. Na przykład, gdy powie komuś coś, czego żałuje. A następnie zastanawia się czy to skutek depresji czy też na przykład urządzenia tkwiącego w jego głowie. Leczenie depresji za pomocą stymulatora wpędziło go więc w nowy problem: kryzys tożsamości. Mężczyzna nie jest dziś pewien, kim tak naprawdę jest!

Tego typu problemy rodzą zaś kolejne, obejmujące nie tylko ludzi z wczepionymi maszynami. Pojawia się bowiem (podobnie jak w przypadku dronów) problem prawnej odpowiedzialności za ewentualne przestępstwa. A także problem odpowiedzialności moralnej. Czy osoba działająca pod wpływem wczepionej do mózgu elektrody powinna odczuwać wyrzuty sumienia? Czy może popełniać grzech? Na ile ograniczona jest jej wolna wola, stanowiąca wszak jeden z wyróżników ludzkiej godności? Czy, w każdym razie w przypadku udoskonalenia tego typu technologii w przyszłości, osoba ta nie zostanie zdegradowana, w pewnym sensie, do poziomu zwierzęcia?

Nie wszyscy, jak się wydaje, dostrzegą ten problem. Niektórzy, wbrew rozsądkowi, odrzucają wszak istnienie wolnej woli. Inni pozbycie się jej uznają – paradoksalnie – za wyzwolenie. Zarzucenie brzmienia wolności i odpowiedzialności umożliwi im bowiem stanięcie poza podziałem na dobro i zło, niczym nietzscheańskim nadludziom.

Pytań jest wiele, a odpowiedzi mało. Jednak mimo wszystko opór wobec niekontrolowanego rozwoju SI budzi zadowolenie. Coraz liczniejsi naukowcy i intelektualiści zdają sobie sprawę, że nie zawsze należy sięgać po zakazany owoc. Dostrzegają, że wbrew oświeceniowym nadziejom, nauka oprócz wielkiego dobra, może uczynić także wielkie zło. Sprzeciw tych środowisk wobec niekontrolowanego rozwoju sztucznej inteligencji to ważny głos zdrowego rozsądku. Czy jednak na pewno przeważy on nad żądzą władzy? Czy ludzie pragnący stać się „jako bogowie” nie stworzą sobie silniejszych od siebie bożków niosących im zagładę?

Marcin Jendrzejczak

CZYTAJ RÓWNIEŻ: [wybór linków generowany komputerowo przez serwer BIBUŁY]

Tags: , ,

Drukuj Drukuj

 

ZASADY PRZEDRUKU Z SERWISU INFORMACYJNEGO BIBUŁY:
Przedruki dozwolone, pod warunkiem podania źródła (np. "bibula.com" lub "Serwis Informacyjny BIBUŁA"), i/lub pełnego adresu internetowego: http://www.bibula.com/?p=98233 oraz niedokonywania jakichkolwiek skrótów lub zmian w tekstach i obrazach.


Przedruk materiałów zastrzeżonych przez Autora tekstu źródłowego bądź strony źródłowej, dozwolony jedynie po uzyskaniu stosownej zgody Autora.


Opinie wyrażane w tekstach publikowanych na łamach BIBUŁY są własnością autorów i niekoniecznie muszą odpowiadać opiniom wyrażanym przez Redakcję pisma BIBUŁY oraz Serwis Informacyjny BIBUŁY.


UWAGI, KOMENTARZE:

Wszelkie uwagi odnośnie tekstów, które publikowane były pierwotnie w innych mediach, prosimy kierować pod adresem redakcji źródłowej.
Uwagi do Redakcji BIBUŁY prosimy kierować korzystając z formularza [tutaj]