Provocările platformelor sociale descentralizate
Yoel Roth, fostul lider al Departamentului de Încredere și Siguranță de la Twitter, vorbește despre provocările cu care se confruntă platformele sociale descentralizate, cum ar fi Mastodon, Threads și Bluesky, în ceea ce privește combaterea dezinformării și a conținutului ilegal, precum materialele de abuz sexual asupra copiilor (CSAM).
Lipsa instrumentelor de moderare
Roth subliniază că platformele din fediverse, care promovează comunități online democratice, au cele mai puține resurse pentru moderare. El observă că serviciile care se bazează pe controlul comunității oferă cele mai slabe instrumente tehnice pentru a-și administra politicile. În trecut, Twitter a explicat deciziile sale de moderare, cum ar fi interzicerea lui Trump, dar acum, multe platforme sociale rareori oferă explicații utilizatorilor cu privire la postările interzise, acestea dispărând fără o notificare prealabilă.
Economia moderării
Roth abordează și problemele economice legate de moderare, menționând că abordarea federată nu a fost sustenabilă. Organizația IFTAS (Independent Federated Trust & Safety) a încercat să dezvolte instrumente de moderare pentru fediverse, dar a fost nevoită să-și închidă proiectele din lipsă de fonduri. Roth explică faptul că eforturile de moderare sunt adesea realizate de voluntari, iar costurile legate de tehnologie devin rapid prohibitive.
Problemele de confidențialitate
Deciziile de a favoriza confidențialitatea pot afecta eforturile de moderare. Spre deosebire de Twitter, care colecta date precum adresa IP și identificatorii de dispozitive pentru analiză, platformele federate pot evita colectarea acestora din motive de confidențialitate, ceea ce îngreunează identificarea boturilor. Roth oferă exemple din experiența sa de la Twitter, subliniind că acuzațiile de „bot” erau adesea greșite, incluzând un incident în care Jack Dorsey a amplificat conținutul unui actor rus fără a ști.
Impactul inteligenței artificiale
O discuție relevantă este despre modul în care inteligența artificială (IA) schimbă peisajul platformelor sociale. Roth menționează o cercetare de la Stanford care sugerează că modelele lingvistice mari (LLM) pot fi mai convingătoare decât oamenii în contexte politice. Acesta subliniază că soluțiile trebuie să se bazeze pe semnale comportamentale, nu doar pe analiza conținutului, pentru a combate eficient dezinformarea generată de IA.
În concluzie, provocările cu care se confruntă platformele sociale descentralizate evidențiază nevoia urgentă de a dezvolta instrumente de moderare eficiente și sustenabile, într-un mediu în care confidențialitatea și transparența sunt esențiale pentru menținerea unui spațiu online sigur și democratic.