Utilizatorii Anthropic se confruntă cu o nouă alegere: să renunțe sau să contribuie cu datele lor la antrenarea AI-ului

Moderator
4 Min Citire

Sursa foto: Google Images

0:00

Modificări importante în politica de utilizare a datelor la Anthropic

Anthropic a anunțat modificări semnificative în modul în care gestionează datele utilizatorilor, solicitând tuturor utilizatorilor Claude să decidă până pe 28 septembrie dacă doresc ca conversațiile lor să fie folosite pentru antrenarea modelului AI. Anterior, Anthropic nu utiliza datele din conversațiile utilizatorilor pentru antrenament, dar acum compania își propune să folosească aceste date pentru a îmbunătăți sistemele sale AI, extinzând în același timp perioada de păstrare a datelor la cinci ani pentru cei care nu aleg să se opună.

Ce se schimbă?

În trecut, utilizatorii produselor de consum Anthropic erau informați că datele lor vor fi șterse automat din sistemele companiei în termen de 30 de zile, cu excepția cazului în care era necesar din motive legale sau de politică, sau dacă datele erau marcate ca fiind în violare a politicilor companiei. În aceste cazuri, datele utilizatorilor puteau fi păstrate timp de până la doi ani. Noile politici se aplică utilizatorilor Claude Free, Pro și Max, inclusiv celor care utilizează Claude Code, în timp ce clienții de afaceri care folosesc Claude Gov, Claude for Work, Claude for Education sau acces API nu vor fi afectați.

Motivația schimbărilor

Anthropic prezintă aceste modificări ca fiind o alegere pentru utilizatori, afirmând că cei care nu aleg să se opună vor ajuta la îmbunătățirea siguranței modelului, făcând sistemele de detectare a conținutului dăunător mai precise. Totuși, adevărul este că Anthropic are nevoie de date pentru a-și antrena modelele AI. Accesarea interacțiunilor utilizatorilor Claude le va oferi conținutul real necesar pentru a-și consolida poziția competitivă față de rivali precum OpenAI și Google.

Contextul industriei

Modificările din politica de utilizare a datelor reflectă o tendință mai largă în industrie, pe măsură ce companiile precum Anthropic și OpenAI se confruntă cu o atenție sporită asupra practicilor lor de păstrare a datelor. De exemplu, OpenAI se confruntă cu un ordin judecătoresc care obligă compania să păstreze toate conversațiile utilizatorilor ChatGPT indefinite, inclusiv cele șterse, în urma unui proces intentat de publicații precum The New York Times.

Confuzia utilizatorilor

Schimbările rapide ale politicilor de utilizare generează confuzie în rândul utilizatorilor, mulți dintre aceștia nefiind la curent cu modificările. Majoritatea utilizatorilor ChatGPT continuă să apese pe butoanele de „ștergere” care, în realitate, nu șterg nimic. Implementarea noii politici de către Anthropic urmează un model familiar, cu utilizatorii noi alegând preferințele în timpul înregistrării, iar utilizatorii existenți fiind confruntați cu o fereastră pop-up pentru „Actualizări ale termenilor și politicii de consum”, cu un buton mare „Accept” și un comutator mic pentru permisiunile de antrenament, setat automat pe „Activat”.

Implicarea autorităților

Experții în confidențialitate au avertizat că complexitatea în jurul AI-ului face ca acordul semnificativ al utilizatorilor să fie aproape imposibil de obținut. Sub administrația Biden, Comisia Federală pentru Comerț a intervenit, avertizând că companiile de AI riscă acțiuni de aplicare a legii dacă modifică în mod unilateral termenii de serviciu sau politica de confidențialitate. Rămâne de văzut dacă comisia, acum cu trei din cinci comisari, își va menține atenția asupra acestor practici.

Concluzie

Modificările aduse politicii de utilizare a datelor de către Anthropic subliniază provocările legate de confidențialitatea utilizatorilor într-un peisaj tehnologic în continuă schimbare, având implicații semnificative asupra modului în care utilizatorii interacționează cu modelele AI și asupra protecției datelor personale.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *