Internet

Nowe funkcje Twittera – walka z nękaniem, troliingiem i mową nienawiści

Podczas niedawnej konferencji przedstawiciele Twittera ogłosili, że rozszerzają zakres działań mających na celu ochronę swoich użytkowników przed nękaniem – miedzy innymi dzięki zapobieganiu tworzeniu nowych kont przez zbanowanych użytkowników oraz nowej metodzie „bezpiecznego wyszukiwania”.

Zjawisko masowego publikowania nienawistnych treści w sieci przybiera z roku na rok coraz większą siłę. Stało się narzędziem w „brudnym marketingu”, a stosowanie płatnego trollingu jest przypisywane partiom politycznym i obcym wywiadom. Dla niektórych, negatywnie zabarwione treści są środkiem do osiągnięcia sieciowej popularności. W lipcu Twitter zbanował konto należące do prawicowo-konserwatywnego prowokatora, Milo Yianopolusa, wydawcy portalu Bretibart News. Powodem był „udział lub podżeganie do ukierunkowanego prześladowania osób”. Twitter kolejno zawieszał konta innych „ciemnych gwiazd” internetu, reprezentujących tzw. „ruch alt-right”, będącym mieszanką rasizmu, nacjonalizmu, ksenofobii i mizoginii. Ograniczenia nie dotyczą jedynie osób o poglądach skrajnie prawicowych. Wcześniej Twitter ogłosił, że zablokował około 360 000 kont w związku z promowaniem terroryzmu i ekstremizmu, ale według przedstawicieli, sytuacja ta nie ma związku z nowym zwrotem w polityce firmy.

Twitter od czasu powstania zmaga się z nierozwiązanym problemem zwalczania nienawistnych treści pojawiających się w serwisie. Z jednej strony pragnie on zachować opinię medium wolnego słowa, a z drugiej na różne sposoby próbuje chronić przed nimi swoich użytkowników.

Serwis społecznościowy wprowadza również funkcję “bezpiecznego wyszukiwania”, która usuwa z wyników wyszukiwarki tweety o treściach potencjalnie wrażliwych, jak również te pochodzące z kont zablokowanych I “wyciszonych”. Treści mimo to nadal są zachowane, ale nie będą się pojawiać w odpowiedzi na zapytanie użytkowników. Dodatkowo, niektóre odpowiedzi użytkowników uznane za mniej związane z tematem, będą mniej widoczne w konwersacjach.

Mowa nienawiści i promocja przemocy od dawna były zakazana w takich serwisach, jak Twitter czy Facebook. Jednakże uaktywnienie się tego typu treści w trakcie amerykańskiej kampanii prezydenckiej skłoniło przedstawicieli mediów społecznościowych do potraktowania tematu priorytetowo. Ma to związek z masowym pojawianiem się profili tworzonych celowo pod kątem trollingu i rozrost treści z gatunku „alt-right”.

Eksperci zarzucają serwisom brak rozwiązań na poziomie algorytmów I zbyt mocne poleganie na samych użytkownikach, jako partnerach w moderacji treści. Trudno jednak oczekiwać, aby poświęcali oni swoją znaczną część czasu online na tropienie treści niezgodnych z polityką dopuszczalnego użycia i zgłaszali je do administratorów. Frustrację dodatkowo budzi fakt, że decyzje o usuwaniu treści podejmowane są zbyt arbitralnie i w oparciu o przekonania osoby znajdującej się po drugiej stronie ekranu. Serwisy też niechętnie reagują na pojedyncze zgłoszenia, czekając, aż sygnałów pojawi się więcej.

Mowa nienawiści w sieci to obecnie największy problem, z jakim borykają się zarówno użytkownicy mediów społecznościowych, jak I ich zarządcy.