Grupa 26 wybitnych naukowców ostrzega: sztuczna inteligencja niebezpieczna dla ludzkości

Aktualizacja: 2018-03-2 10:50 am

Sztuczna inteligencja jest na granicy przekształcenia naszego świata w sposób, który wielu z nas ledwo sobie może wyobrazić – ostrzega 26 czołowych światowych naukowców, twórców raportu na temat najnowszych technologii: „The malicious use of Artificial Intelligence: forecasting, prevention and mitigation”. 

Uczeni wskazują na zagrożenia, które mogą pojawić się w nadchodzącej dekadzie. Systemy sztucznej inteligencji (AI) zaczynają przekraczać poziomy ludzkiej wydajności.

Zautomatyzowane hakowanie jest uważane za jedno z najbardziej nieuchronnych zastosowań sztucznej inteligencji, szczególnie tak zwane ataki typu „phishing”.

– Ta część wymagała wiele wysiłku. Musieliście przestudiować swój target, stworzyć profil, stworzyć konkretną wiadomość (tzw. phishing). Przechodzimy teraz do punktu, w którym możemy instruować komputery, aby robiły to samo. Możesz więc odwzorować czyjeś zainteresowania lub preferencje, styl pisania, styl pisania bliskiego przyjaciela i automatycznie utworzyć wiadomość, która wygląda jak coś, w co inni klikną – stwierdził współautor raportu Shahar Avin z Centrum Badań nad Ryzykiem Egzystencjalnym na brytyjskim Uniwersytecie Cambridge.

„Phishing” to typ oszustwa internetowego, które podstępem wyłudza od użytkownika jego osobiste dane.

W erze tak zwanych „fałszywych wiadomości”, implikacje AI dla mediów i dziennikarstwa są ogromne. Programiści z Uniwersytetu Waszyngtońskiego w ubiegłym roku opracowali algorytm sztucznej inteligencji, aby stworzyć nagranie video z fałszywym wizerunkiem byłego prezydenta USA Baracka Obamy, który mówił wszystko to, czego chcieli. To dopiero początek możliwości, jakie przynoszą eksperymenty ze sztuczną inteligencją – przekonuje Avin.

– Tworzysz filmy i nagrania audio w pikselach nieodróżnialnych od prawdziwych filmów i prawdziwego dźwięku ludzi. Będziemy potrzebować nowych środków technicznych. Może jakieś cyfrowe podpisy, żeby móc zweryfikować źródła – dodaje.

Wielkie firmy technologiczne i giganci motoryzacyjni rywalizują o pierwsze miejsce na rynku, by stworzyć auta samojezdne. Systemy te jednak będą na tyle bezpieczne, na ile będzie bezpieczne środowisko, w którym działają.

Samochód samokontrolujący Argo był na przykład testowany w Pittsburghu, w stanie Pensylwania 22 stycznia tego roku. Argo to firma należąca do Forda.

Samojezdne auta mogą być lepiej prowadzone niż przez przeciętnego kierowcę, ale tego typu auta nie są bezpieczne. Wszelkie urządzenia i systemy sztucznej inteligencji są narażone na ataki złośliwego „aktora”, który wie, co robić. Wskutek zdalnego sterowania będzie można wywoływać wypadki w dowolnym miejscu z dowolną ilością pojazdów. Podobnie w domu, w którym wiele urządzeń jest podpiętych do sieci.

Raport ostrzega przed ​​rozprzestrzenianiem się dronów i innych zrobotyzowanych systemów, które mogą umożliwić atakującym rozmieszczenie lub ponowne wykorzystanie takich systemów w szkodliwych celach, takich jak rozbijanie flot pojazdów autonomicznych, zamienianie komercyjnych dronów w pociski wymierzone w konkretne osoby, rozpoznające je automatycznie dzięki innym systemom czy w celu wyłudzania okupów poprzez groźby ataków na infrastrukturę krytyczną.

Użycie sztucznej inteligencji w wojnie jest powszechnie uważane za jedną z najbardziej niepokojących możliwości. „Roboty zabójcy” będą podejmować decyzje za ludzi.

– Chcesz mieć przewagę nad przeciwnikiem. Instalujesz wiele czujników, mnóstwo małych robotycznych systemów, z których każdy dostarcza terabajtów informacji o tym, co dzieje się na polu bitwy. Żaden człowiek nie byłby w stanie zebrać tych informacji, więc zaczniesz stosować systemy rekomendacji decyzji – wyjaśnił uczony, dodając, że w ten sposób ludzie zaczną tracić kontrolę nad robotami.

Istnieje także niebezpieczeństwo wykorzystania sztucznej inteligencji do masowej inwigilacji, zwłaszcza przez opresyjne reżimy.

Badacze podkreślają, że AI ma także wiele pozytywnych zastosowań, w szczególności do obrazowania w medycynie. Jednak trzeba uświadomić sobie, że sztuczna inteligencja jest technologią podwójnego zastosowania. Może być użyta do celów wojskowych lub społecznych, by pomagać lub szkodzić.

Naukowcy i inżynierowie zajmujący się sztuczną inteligencją oraz politycy powinni podejmować aktywne działania, by przeciwdziałać możliwościom niewłaściwego wykorzystania AI.

Autorzy raportu twierdzą, że sama sztuczna inteligencja prawdopodobnie dostarczy wielu rozwiązań dzisiejszych problemów, jednak skala zagrożeń, jakie są z nią związane, jest ogromna.

W dobie cyfryzacji i integrowania z internetem wszelkich instytucji, infrastruktury krytycznej, trzeba zdawać sobie sprawę z zagrożenia powszechnymi cyberatakami na korporacje, elektrownie, instytucje rządowe, finansowe, infrastrukturę wojskową, medyczną, transportową i jaką tylko można sobie wyobrazić. Zdalne sterowanie daje ogromne możliwości powodowania wypadków, zabójstw i wszelkich możliwych przestępstw. itp.

Sztuczna inteligencja stwarza niewyobrażalne możliwości inwigilowania obywateli, wywierania na nich ogromnego wpływu. To potężne narzędzie w rękach propagandystów do stosowania najpodlejszej inżynierii społecznej.

Stosowanie sztucznej inteligencji daje możliwość wikłania wybranych osób w „czyny”, których nie popełniły (podszywanie się pod nie). To wygodne narzędzie do propagowania fake newsów, do przeprowadzania super kampanii dezinformacyjnych, zagłuszania informacji itp.

Ze sztuczną inteligencją ogromne nadzieje wiążą propagatorzy zrównoważonego rozwoju. Nowe technologie mają zastąpić tradycyjne czynniki produkcji, zwłaszcza taki jak ziemia. Wedle twórców tej koncepcji, w sytuacji, gdy nie można szkodzić środowisku i trzeba wyżywić szybko rosnącą liczbę ludności, a także zapewnić jej różne usługi, technologia jawi się jako jedyne słuszne rozwiązanie. Wszyscy „musimy” złożyć się na inwestycje potrzebne w odpowiedniej infrastrukturze, by umożliwić wdrożenie rewolucji cyfrowej na świecie.

Źródło: voanews.com

AS

CZYTAJ RÓWNIEŻ: [wybór linków generowany komputerowo przez serwer BIBUŁY]

    Tags: , ,

    Drukuj Drukuj

     

    ZASADY PRZEDRUKU Z SERWISU INFORMACYJNEGO BIBUŁY:
    Przedruki dozwolone, pod warunkiem podania źródła (np. "bibula.com" lub "Serwis Informacyjny BIBUŁA"), i/lub pełnego adresu internetowego: http://www.bibula.com/?p=100205 oraz niedokonywania jakichkolwiek skrótów lub zmian w tekstach i obrazach.


    Przedruk materiałów zastrzeżonych przez Autora tekstu źródłowego bądź strony źródłowej, dozwolony jedynie po uzyskaniu stosownej zgody Autora.


    Opinie wyrażane w tekstach publikowanych na łamach BIBUŁY są własnością autorów i niekoniecznie muszą odpowiadać opiniom wyrażanym przez Redakcję pisma BIBUŁY oraz Serwis Informacyjny BIBUŁY.


    UWAGI, KOMENTARZE:

    Wszelkie uwagi odnośnie tekstów, które publikowane były pierwotnie w innych mediach, prosimy kierować pod adresem redakcji źródłowej.
    Uwagi do Redakcji BIBUŁY prosimy kierować korzystając z formularza [tutaj]