Przecław News

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej w Wiadomościach Przecławia.

Naziści i ochotnicy używają Gotye i MGMT do unikania botów TikTok, mówi raport

Największe niezależne badanie nienawiści na TikTok wykazało, że antyazjatyckie i pronazistowskie filmy wideo zbierają miliony wyświetleń, często wykorzystując popowe piosenki, aby uniknąć automatycznych moderatorów platformy.

Raport Instytutu Dialogu Strategicznego (ISD), londyńskiego centrum badawczego zajmującego się zwalczaniem ekstremizmu, stwierdza, że ​​wiodąca platforma społecznościowa jest „popularna wśród tych, którzy zamierzają wykorzystywać przestrzenie internetowe do produkcji, rozpowszechniania i promowania nienawiści i ekstremizmu”.

Raport Hatescape, wynik trzymiesięcznych badań, wykazał, że niektóre z zawartych w nim treści rasistowskich lub terrorystycznych były motywowane lub związane z Australijczykami.

Jeden z filmów, który zebrał ponad dwa miliony wyświetleń, zawiera kaukaskiego mężczyznę jedzącego nietoperza w obraźliwym nawiązaniu do stereotypów na temat Chińczyków.

Inne filmy, w których Australijczycy występują jako mężczyzna w czerni lub jako funkcjonariusz policji podczas „odtworzenia” morderstwa George’a Floyda, którego śmierć wywołała w zeszłym roku globalne protesty pod tytułem „Black Lives Matter”.

„Tego rodzaju rzeczy powtarzają się na całym świecie” – powiedział autor badania Kieran O’Connor.

„Komentarze poniżej w pewnym sensie podkreślają tematy, które poruszasz i jak generują nieprzyjemne sytuacje”.

Chociaż nie jest niespodzianką, że skrajne grupy wykorzystują platformy mediów społecznościowych do publikowania nienawistnych materiałów, eksperci twierdzą, że TikTok stworzył kreatywne sposoby rozpowszechniania treści i unikania automatycznego usuwania.

Te dziwactwa obejmowały coś tak prostego, jak zmiana ścieżki dźwiękowej – ale nadal nie jest jasne, co dokładnie działa.

„TikTok jest znany jako bardzo trudna platforma do studiowania, z jednego powodu jest to nowy gatunek i nie ma zbyt wiele metodologii” – powiedział Ariel Bogle, analityk z Międzynarodowego Centrum Polityki Elektronicznej (ICPC).

READ  Moje dzieci nie chodzą do szkoły

„Jest również napędzany przez algorytm, który pozostaje bardzo tajemniczy”.

O’Connor powiedział, że w jego próbce 1030 filmów – skompilowanych z biblioteki hashtagów i popularnych fraz publikowanych przez marginalne grupy – było okropne treści dotyczące wszelkiego rodzaju grup chronionych.

Często używał antyazjatyckich filmów o COVID-19 lub innych niepowiązanych hashtagów, które według pana O’Connora ułatwiają wykrywanie treści i mogą pokazać je osobom, które w przeciwnym razie by ich nie zobaczyły.

Prawie połowa filmów w próbce była materiałem pronazistowskim, a niektóre pokazywały materiał z transmisji na żywo strzelanki z Christchurch lub ludzi czytających bezpośrednio z jego wypowiedzi.

Ta treść jest nielegalna w wielu jurysdykcjach, a niektóre posty mogą zawierać łącze, które kieruje widzów do zaszyfrowanego kanału wiadomości zawierającego bardziej ekstremistyczne materiały.

Stwierdzono również, że TikTok przyciąga inne skrajne typy, takie jak grupy antytranspłciowe lub ideologia mężczyzn idących własną drogą, odgałęzienie ruchu antykobiecego.

O’Connoer powiedział, że po zakończeniu badania ponad 80 procent filmów było nadal na żywo, ale ABC jest świadoma, że ​​platforma usunęła wszystkie z nich po tym, jak zostały oznaczone przez ISD.

Chociaż TikTok twierdzi, że usuwa zdecydowaną większość treści naruszających jego zasady w ciągu 24 godzin, wiele funkcji używanych do unikania moderatorów jest wbudowanych w platformę.

Na ekranie pojawi się ikona aplikacji TikTok.
O’Connor powiedział, że platforma nauczyła się na błędach Facebooka i TikTok, ale potrzebna jest większa przejrzystość.(

AP

)

Zarówno pani Bogle, jak i ISD wskazali proste sposoby unikania moderacji przez użytkowników, takie jak zmiana znaku w niedozwolonym wyrażeniu, nazwa konta lub błędna pisownia hashtagu.

Inne technologie wykorzystywały funkcję „Stitch” lub „Duet”, która łączyła zakazane i nazistowskie materiały z innymi filmami, w niektórych przypadkach wyskakując na tyle, aby uniknąć cenzury.

„Zawsze jest jakaś gra w kotka i myszkę z moderacją TikTok” – powiedział Bogle.

„Widziałem również postacie, których konta zostały usunięte przez TikTok, ale pozostały na platformie, ponieważ inni ludzie właśnie je ponownie przesłali, prawdopodobnie z inną ścieżką dźwiękową”.

TikTok może również wyciszyć filmy, które zawierają dźwięk, który narusza wytyczne społeczności, ale skutecznym rozwiązaniem jest użycie utworów z katalogów aplikacji.

Ulubioną piosenką tych grup, według pana O’Connora, był Little Dark Age MGMT.

W próbce ISD poczesne miejsce zajmowały także Gotye Person I Knew i Running Up That Hill Kate Bush.

Żadna z tych piosenek nie zawiera ekstremalnych konotacji.

O’Connor powiedział, że chociaż TikTok nauczył się na pułapkach i błędach popełnionych przez inne firmy zajmujące się mediami społecznościowymi, a większość zgłoszonych filmów miała niskie zaangażowanie, powiedział, że firma potrzebuje większej przejrzystości w zakresie tego, jak modyfikuje swoje treści.

„Istnieje luka w zastosowaniu podejścia TikTok do nienawiści i ekstremizmu… Ta treść została usunięta, ale niekonsekwentnie” – powiedział.

Rzeczniczka TikTok powiedziała, że ​​media społecznościowe cenią „dużo” badań przeprowadzonych przez ISD i inne organizacje.

„TikTok kategorycznie zabrania brutalnego ekstremizmu i nienawistnych zachowań, a nasz oddany zespół usunie wszelkie takie treści, ponieważ naruszają one nasze zasady i podważają kreatywne i radosne wrażenia, jakich ludzie oczekują na naszej platformie” – powiedziała w oświadczeniu.

„Bardzo cenimy naszą współpracę z ISD i innymi, których krytyczne badania nad wyzwaniami w całej branży pomagają rozwijać nasze zasady, aby nasza platforma była bezpieczna i przyjazna”.