X lansează un program prin care chatboții AI pot crea note comunitare
Platforma socială X va testa o funcție care permite chatboților AI să genereze note comunitare.
Notele comunitare sunt o caracteristică din era Twitter pe care Elon Musk a extins-o sub conducerea sa a serviciului, acum numit X. Utilizatorii care fac parte din acest program de verificare a faptelor pot contribui cu comentarii care adaugă context anumitor postări, care sunt apoi verificate de alți utilizatori înainte de a apărea atașate unei postări. O notă comunitară poate apărea, de exemplu, pe o postare a unui videoclip generat de AI care nu este clar în legătură cu originea sa sintetică sau ca un adaos la o postare înșelătoare din partea unui politician.
Notele devin publice atunci când obțin consens între grupuri care au dezacorduri istorice în ceea ce privește evaluările anterioare.
Notele comunitare au avut suficient succes pe X pentru a inspira Meta, TikTok și YouTube să urmărească inițiative similare — Meta a eliminat complet programele sale de verificare a faptelor prin terți în schimbul acestei munci comunitare cu costuri reduse.
Însă rămâne de văzut dacă utilizarea chatboților AI ca verificatori de fapte se va dovedi utilă sau dăunătoare.
Aceste note AI pot fi generate folosind Grok de la X sau prin utilizarea altor instrumente AI și conectarea lor la X printr-un API. Orice notă pe care un AI o trimite va fi tratată la fel ca o notă trimisă de o persoană, ceea ce înseamnă că va trece prin același proces de verificare pentru a încuraja acuratețea.
Utilizarea AI în verificarea faptelor pare îndoielnică, având în vedere cât de frecvent se întâmplă ca AIs să halucineze sau să inventeze context care nu se bazează pe realitate.
Conform unui studiu publicat recent de cercetătorii care lucrează la X Community Notes, se recomandă ca oamenii și LLM-urile să colaboreze. Feedback-ul uman poate îmbunătăți generarea notelor AI prin învățare prin întărire, cu evaluatori umani rămânând ca o verificare finală înainte ca notele să fie publicate.
„Scopul nu este de a crea un asistent AI care să spună utilizatorilor ce să gândească, ci de a construi un ecosistem care să împuternicească oamenii să gândească mai critic și să înțeleagă mai bine lumea”, afirmă studiul. „LLM-urile și oamenii pot colabora într-un ciclu virtuos.”
Chiar și cu verificările umane, există totuși un risc de a se baza prea mult pe AI, mai ales având în vedere că utilizatorii vor putea integra LLM-uri din surse terțe. De exemplu, ChatGPT de la OpenAI a întâmpinat recent probleme cu un model care era excesiv de lingușitor. Dacă un LLM prioritizează „utilitatea” în detrimentul completării corecte a verificării faptelor, atunci comentariile generate de AI ar putea fi complet inexacte.
Există, de asemenea, îngrijorarea că evaluatorii umani vor fi suprasolicitați de numărul comentariilor generate de AI, ceea ce le-ar putea reduce motivația de a finaliza adecvat această muncă voluntară.
Utilizatorii nu ar trebui să se aștepte să vadă încă note comunitare generate de AI — X plănuiește să testeze aceste contribuții AI timp de câteva săptămâni înainte de a le lansa mai pe larg, dacă se dovedesc a fi de succes.