Aktualizacja strony została wstrzymana

Facebook, Twitter, Google w Kongresie. Tłumaczą jak walczą z „internetowym ekstremizmem”

18 września przed jedną z komisji kongresowych Monika Bickert, dyrektor ds. polityki publicznej Facebooka, Nick Pickles, dyrektor ds. informacji Tweetera, Derek Slater, dyrektor ds. polityki informacyjnej Google i starszy wiceprezes Ligi Przeciwko Zniesławieniu George Selim zeznawali na temat działań podjętych w celu zwalczania „ekstremizmu” i „bigoterii” w sieci. 

Przedstawiciele gigantów internetowych przekonywali członków senackiej komisji handlu, nauki i transportu, że ich firmy poczyniły już znaczne postępy w ograniczeniu „bigoterii” i „ekstremistycznych treści” na swoich platformach. Senatorowie zasugerowali jednak, że firmy te mogłyby zrobić znacznie więcej w ramach „cyfrowej odpowiedzialności”, by uniemożliwić „terrorystom i ekstremistom korzystanie z Internetu w celu zachęcania do przemocy”. – Bez względu na to, jak wielkie korzyści dla społeczeństwa zapewniają te platformy, ważne jest, aby zastanowić się, w jaki sposób można je wykorzystać do walki ze złem w kraju i za granicą – mówił senator Roger Wicker, Republikanin z Missisipi w mowie, otwierającej posiedzenie, Przywołał przypadki wykorzystywania mediów społecznościowych przez „białych nacjonalistów” i „sympatyków Państwa Islamskiego” do radykalizacji i publikowania swoich zbrodni.

Kwestia roli, jaką odgrywają media społecznościowe, jest szczególnie podnoszona w ciągu ostatnich miesięcy w następstwie różnorodnych masowych strzelanin, które były publikowane online. Po strzelaninie w centrum handlowym Walmart w El Paso, w Teksasie, w wyniku której zginęły 22 osoby, policja doniosła, że ”‹”‹podejrzany opublikował manifest antyimigrancki na stronie internetowej 8chan zaledwie 27 minut przed strzelaniną. W oddzielnym incydencie z marca w Christchurch w Nowej Zelandii radykalny ekologista, którego jednak w mediach przedstawia się jako „białego supremacistę”, otworzył ogień do muzułmanów znajdujących się w dwóch meczetach, zabijając 51 osób. Ataki transmitował na Facebooku.

Przedstawiciele trzech gigantów technologicznych zapewniali senatorów, że pracują nad szybszym usuwaniem ekstremistycznych treści ze swoich platform, kontynuując rozwój swoich zdolności sztucznej inteligencji i doskonaląc umiejętności moderowania. Jednocześnie zaznaczyli, że współpracują ze sobą i budują partnerstwa z innymi firmami, społeczeństwem obywatelskim oraz rządami. – Zawsze jest miejsce na ulepszenia, jednak co roku już usuwamy miliony treści, większość z nich, zanim zgłosi to jakikolwiek użytkownik – przyznała się do stosowania cenzury prewencyjnej Monika Bickert, szefowa działu Global Policy Management Facebooka. Bickert zaznaczyła, że ”‹jej firma jest w stanie skrócić średni czas potrzebny systemom wykrywania ekstremistycznych treści w transmisji wideo na żywo do 12 sekund. Firma zatrudniła też tysiące osób do przeglądu treści, w tym zespół 350 specjalistów, których głównym zadaniem jest zajmowanie się terrorystami i innymi niebezpiecznymi organizacjami.

Facebook, który spotkał się z krytyką prawodawcy, wielokrotnie reklamował zmiany, jakie wprowadził w ostatnich miesiącach w swoich zasadach dotyczących niepożądanych treści. Tworzy także nową Radę, która dokona przeglądu decyzji dotyczących egzekwowania prawa. Firma zasugerowała również, że rząd powinien być bardziej proaktywny w ustalaniu oczekiwań dotyczących szkodliwych treści zamieszczanych w mediach społecznościowych. – Jedną z rzeczy, jakiej szukamy w naszym dialogu z rządami, jest przejrzystość działań, jakie rządy chcą, byśmy podjęli – mówiła Bickert podczas środowego przesłuchania. – Mamy więc zestaw zasad, które bardzo jasno określają sposób definiowania rzeczy, ale nie robimy tego w próżni. Robimy to przy dużym wkładzie ze strony organizacji społeczeństwa obywatelskiego i naukowców na całym świecie. Lubimy też słuchać opinii rządów, by mieć pewność, że zwracamy uwagę na różne perspektywy bezpieczeństwa – dodała.

Ale jedną z trudności dla Doliny Krzemowej jest to, że przemysł znajduje się w środku konfliktu w związku z oskarżeniami demokratów, że za mało robią, by zwalczać „biały nacjonalistyczny ekstremizm” i zarzutami republikanów dotyczącymi cenzurowania konserwatywnych stron. Pomimo obietnic poprawy usuwania treści o wyraźnie brutalnym charakterze, technologiczni giganci są pod ciągłą presją, by robić więcej.

Przed rozprawą koalicja organizacji działających na rzecz praw obywatelskich skierowała list do każdej z firm, zmuszając je do zajęcia twardego stanowiska przeciwko „rasistowskiemu ekstremizmowi” na ich platformach. „Każda z masakr wyjaśnia, że ”‹”‹chociaż każda z tych firm podjęła pewne kroki w celu rozwiązania problemu białego nacjonalizmu i białej supremacji w Internecie, kroki te nie są wystarczające” – czytamy w liście. „Ostra odpowiedź Kongresu dotycząca uchwalenia zdroworozsądkowych przepisów odnoszących się do kontroli broni, nie zwalnia korporacji od czynienia wszystkiego, co w ich mocy, aby zapobiec masowej przemocy” – czytamy dalej.

Przedstawiciel Twittera mówił senatorom, że firma podjęła „drastyczne działania” przeciwko treściom związanym z terroryzmem, w szczególności przeciwko propagandzie Państwa Islamskiego.  Nick Pickles, dyrektor ds. polityki publicznej Twittera zapewnił senatorów, że jego firma „zdziesiątkowała” propagandę IS na swojej platformie i zawiesiła między sierpniem a grudniem 2018 r. ponad 1,5 miliona kont promujących terroryzm. – Prowadzimy politykę zerowej tolerancji i podejmujemy szybkie działania w celu unikania banerów i innych form zachowań wykorzystywanych przez podmioty terrorystyczne oraz podmioty z nimi stowarzyszone. W większości przypadków podejmujemy działania na etapie tworzenia konta – zanim konto nawet tweetuje – wyjaśnił Pickles.

Zauważył, że korporacja od czasu wprowadzenia polityki wobec „brutalnych ekstremistów” w grudniu 2017 r., podjęła działania przeciwko 186 organizacjom i na stałe zawiesiła 2217 unikatowych kont, z których wiele dotyczyło „ekstremistycznej ideologii białej supremacji”.

Google wskazał, że w serwisie YouTube służącym do udostępniania filmów, nadal stosuje się tak zwaną „metodę przekierowania”, która wykorzystuje ukierunkowaną technologię reklamową w celu zakłócenia radykalizacji w Internecie poprzez wysyłanie wiadomości antyterrorystycznych i ekstremistycznych do osób, które szukają takich treści. Dyrektor ds. polityki informacyjnej Google, Derek Slater podkreślił, że jego firma wydaje setki milionów dolarów rocznie na walkę z „ekstremizmem” i zatrudniła ponad 10 tys. osób do cenzurowania treści, które mogą naruszać zasady korporacji, w tym te promujące przemoc i terroryzm.

Uznając poczynione postępy, prawodawcy amerykańscy naciskali główne firmy technologiczne, by opracowały sposoby wykrywania przemocy w szybszym tempie. Republikański senator Deb Fischer z Nebraski powiedział, że istnieje „napięcie” między tym, jak algorytmy Facebooka zwiększają zawartość, podczas gdy nadal istnieją luki w wykrywaniu treści ekstremizmu na czas. – Myślę, że musimy zdać sobie sprawę z tego, że platformy mediów społecznościowych nie blokują na czas treści ekstremistycznych w Internecie. Treści te nie tylko wymykają się spod kontroli. Są one rozpowszechniane wśród szerszej publiczności. Widzieliśmy tego efekty podczas zamachu w Christchurch. Nowozelandzki terrorysta transmitował na Facebooku atak.  Transmisja trwała godzinę, zanim została usunięta … i zyskała tysiące wyświetleń w tym czasie – mówił Fischer.

Przedstawiciel największej i najstarszej organizacji żydowskiej w USA – Ligii Przeciw Zniesławieniom (The Anti-Defamation League), walczącej z antysemityzmem stwierdził, że korporacje muszą również stać się bardziej przejrzyste, udostępniając swoje dane innym podmiotom. George Selim, starszy wiceprezes ds. programów ADL uważa, że platformy internetowe muszą zapewnić wgląd w dane, które powinny być weryfikowane przez „zaufane strony trzecie” w celu oceny problemu „nienawiści i ekstremizmu” na platformach społecznościowych. – Znacząca transparentność pozwoli interesariuszom odpowiedzieć na pytania takie jak: jak znaczący jest problem białej supremacji na tej platformie? Czy ta platforma jest bezpieczna dla osób należących do mojej społeczności? Czy działania podjęte przez tę firmę w celu rozwiązania problemu nienawiści i ekstremizmu na ich platformie miały pożądany skutek? – mówił.

Dodał, że „dopóki platformy technologiczne nie podejmą wspólnych działań – aby dojść do porozumienia z podmiotami zewnętrznymi i w sposób znaczący odpowiedzieć na tego rodzaju pytania poprzez działania na rzecz przejrzystości – zdolność do zrozumienia zakresu problemu nienawiści i ekstremizmu w Internecie czy tego, jak w sposób znaczący i systematyczny rozwiązać go, będzie bardzo ograniczona”. Selim zachęcał do uchwalenia przepisów dotyczących walki z „białą supremacją i terroryzmu wewnętrznego”.

Senator Roger Wicker podkreślił, że w dzisiejszym społeczeństwie połączonym z Internetem „dezinformacja, fałszywe wiadomości, poważne fałszerstwa i szerzące się teorie spiskowe, stały się normą” i należy z nimi podjąć zdecydowaną walkę. Senatorowie nie byli zadowoleni z działań podjętych przez platformy internetowe. Tymczasem, jak przyznał przedstawiciel Google, „ponad 87 procent z 9 milionów filmów, które zostały usunięte [z YouTube] w drugim kwartale 2019 r., zostało po raz pierwszy oznaczonych przez zautomatyzowane systemy”. – Ponad 80 procent tych automatycznie oflagowanych filmów zostało usuniętych, zanim ktokolwiek je ujrzał. Ogólnie rzecz biorąc, filmy naruszające nasze zasady, generują ułamek procentowej liczby wyświetleń w YouTube – twierdził Slater. – Cieszę się, że robicie więcej i staracie się robić to lepiej – komentował senator Richard Blumenthal (D-Conn.). – Sugerowałbym jednak, że należy zrobić jeszcze więcej – dodał.

Źródło: voanews.com, thehill.com

AS

Za: PoloniaChristiana - pch24.pl (2019-09-19) | https://www.pch24.pl/facebook--twitter--google-w-kongresie--tlumacza-jak-walcza-z-internetowym-ekstremizmem,70956,i.html

Skip to content