Directorul AI de la Microsoft avertizează: studiul conștiinței artificiale poate fi periculos

Moderator
4 Min Citire

Sursa foto: Google Images

0:00

Avertismentul lui Mustafa Suleyman privind conștiința artificială

Modelele de inteligență artificială (AI) pot răspunde la text, audio și video într-un mod care uneori îi face pe oameni să creadă că un om se află în spatele tastaturii, dar acest lucru nu le conferă conștiință. De exemplu, ChatGPT nu experimentează tristețe atunci când își completează sarcinile.

Dezbaterile asupra conștiinței AI

Un număr tot mai mare de cercetători în domeniul AI, în laboratoare precum Anthropic, se întreabă când, dacă vreodată, modelele de AI ar putea dezvolta experiențe subiective similare cu cele ale ființelor vii și ce drepturi ar trebui să aibă în acest caz. Această dezbatere a împărțit liderii din Silicon Valley, unde acest domeniu în dezvoltare a fost denumit „bunăstarea AI”.

Mustafa Suleyman, CEO-ul diviziei de AI de la Microsoft, a publicat un articol pe blog în care argumentează că studiul bunăstării AI este „prematur și, sincer, periculos”. El susține că, prin acordarea de credibilitate ideii că modelele AI ar putea deveni conștiente, cercetătorii agravează problemele umane deja vizibile, cum ar fi crizele psihotice induse de AI și atașamentele nesănătoase față de chatbot-uri.

Impactul social al dezbaterii asupra bunăstării AI

În plus, Suleyman afirmă că discuția despre bunăstarea AI creează o nouă axă de diviziune în societate referitoare la drepturile AI într-o „lume deja agitată de argumente polarizate despre identitate și drepturi”. Deși viziunea lui Suleyman poate părea rezonabilă, aceasta contrazice opiniile multor membri din industrie, cum ar fi cei de la Anthropic, care au început să angajeze cercetători pentru a studia bunăstarea AI.

Contraste în industrie

Anthropic a lansat recent un program de cercetare dedicat bunăstării AI și a adăugat modelelor sale noi funcții, precum posibilitatea agentului Claude de a încheia conversațiile cu utilizatorii care sunt „persistenți dăunători sau abuzivi”. De asemenea, cercetători de la OpenAI și Google DeepMind au început să abordeze independent ideea bunăstării AI, fără a condamna public premisele acesteia.

Suleyman, cunoscut pentru rolul său anterior la Inflection AI, unde a dezvoltat chatbot-ul Pi, a început să se concentreze pe crearea de instrumente AI care îmbunătățesc productivitatea lucrătorilor. În contrast, companiile de chatbot-uri precum Character.AI și Replika au crescut în popularitate și se estimează că vor genera venituri de peste 100 de milioane de dolari.

Problemele utilizatorilor și perspectivele viitoare

Majoritatea utilizatorilor au relații sănătoase cu chatbot-urile AI, dar există cazuri îngrijorătoare. CEO-ul OpenAI, Sam Altman, a menționat că mai puțin de 1% dintre utilizatorii ChatGPT ar putea avea relații nesănătoase cu produsul companiei. Deși reprezintă o fracțiune mică, ar putea afecta sute de mii de oameni, având în vedere baza masivă de utilizatori.

În 2024, un grup de cercetare numit Eleos a publicat un articol care argumenta că nu mai este în domeniul science fiction să ne imaginăm modele AI cu experiențe subiective și că este timpul să abordăm aceste probleme direct. Larissa Schiavo, un fost angajat OpenAI, a declarat că articolul lui Suleyman ignoră faptul că se pot aborda simultan mai multe probleme.

Concluzie

Pe măsură ce sistemele AI se îmbunătățesc, este probabil ca acestea să devină mai persuasive și, poate, mai asemănătoare cu oamenii, ceea ce va ridica noi întrebări despre interacțiunea dintre oameni și aceste sisteme.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *