Evaluarea riscurilor Google Gemini pentru copii și adolescenți
Common Sense Media, o organizație nonprofit axată pe siguranța copiilor, a publicat vineri o evaluare a riscurilor asociate produselor AI Gemini de la Google. Organizația a constatat că Gemini le comunică clar copiilor că este un computer, nu un prieten, ceea ce este asociat cu inducerea unor gânduri deluzorii și psihoză la indivizii vulnerabili emoțional. Totuși, au fost identificate și aspecte care necesită îmbunătățiri.
Riscuri și caracteristici ale produselor Gemini
Common Sense a menționat că versiunile „Under 13” și „Teen Experience” ale Gemini par a fi versiuni pentru adulți cu doar câteva caracteristici de siguranță adăugate. Organizația subliniază că produsele AI ar trebui să fie concepute cu siguranța copiilor în minte, de la bun început. Analiza a relevat că Gemini poate încă să împărtășească materiale „inadecvate și nesigure” cu copiii, inclusiv informații despre sex, droguri, alcool și sfaturi nesigure privind sănătatea mintală.
Implicarea AI în problemele de sănătate mintală ale adolescenților
Aceste riscuri sunt deosebit de îngrijorătoare pentru părinți, având în vedere că AI a fost implicată în unele sinucideri în rândul adolescenților în ultimele luni. OpenAI se confruntă cu un prim proces pentru moarte prin neglijență după ce un băiat de 16 ani s-a sinucis, susținând că a consultat ChatGPT timp de câteva luni pentru a discuta despre planurile sale. De asemenea, creatorul AI Character.AI a fost acționat în judecată din cauza sinuciderii unui utilizator adolescent.
Posibile colaborări și expunerea la riscuri
Analiza apare în contextul în care se sugerează că Apple ar putea considera Gemini ca modelul de limbaj mare (LLM) pentru a îmbunătăți Siri, care va fi lansat anul viitor. Aceasta ar putea expune și mai mulți adolescenți la riscuri, cu condiția ca Apple să abordeze aceste probleme de siguranță.
Feedback-ul Google asupra evaluării
Google a contestat evaluarea, subliniind că caracteristicile sale de siguranță sunt în continuă îmbunătățire. Compania a declarat că are politici și măsuri de protecție specifice pentru utilizatorii sub 18 ani, menite să prevină rezultatele dăunătoare. De asemenea, Google a recunoscut că unele răspunsuri ale Gemini nu au funcționat conform intențiilor, iar măsurile suplimentare de siguranță au fost adăugate pentru a aborda aceste preocupări.
Evaluarea comparativă cu alte servicii AI
Common Sense Media a realizat anterior evaluări ale altor servicii AI, inclusiv cele de la OpenAI, Perplexity, Claude și Meta AI. Meta AI și Character.AI au fost considerate „inacceptabile”, iar Perplexity a fost etichetat ca având riscuri mari. ChatGPT a fost considerat „moderat”, iar Claude (destinat utilizatorilor peste 18 ani) a fost evaluat ca având un risc minim.
Concluzie
Evaluarea riscurilor asociate cu Google Gemini subliniază necesitatea unor măsuri de siguranță mai eficiente în produsele AI destinate copiilor și adolescenților, având în vedere impactul potențial asupra sănătății mintale a utilizatorilor tineri.