Senatorul Scott Wiener și inițiativa SB 53
Senatorul de stat din California, Scott Wiener, a introdus miercuri amendamente noi la proiectul său de lege, SB 53, care ar impune celor mai mari companii de inteligență artificială să publice protocoale de siguranță și securitate și să emită rapoarte atunci când apar incidente de siguranță.
Dacă va fi semnat în lege, California ar fi primul stat care impune cerințe semnificative de transparență asupra dezvoltatorilor de AI, incluzând probabil OpenAI, Google, Anthropic și xAI.
Contextul anterior al proiectului SB 1047
Proiectul anterior al senatorului Wiener, SB 1047, includea cerințe similare pentru dezvoltatorii de modele AI de a publica rapoarte de siguranță. Totuși, acest proiect a întâmpinat o opoziție puternică din partea Silicon Valley și a fost respins de guvernatorul Gavin Newsom. Ca urmare, guvernatorul a solicitat constituirea unui grup de lucru format din lideri AI, inclusiv cercetătoarea de la Stanford, Fei-Fei Li, pentru a stabili obiectivele în domeniul siguranței AI pentru statul California.
Grupul de politică AI din California a publicat recent recomandări finale, subliniind necesitatea de a impune industriei obligația de a publica informații despre sistemele lor, pentru a crea un mediu de dovezi robust și transparent. Biroul senatorului Wiener a declarat că amendamentele la SB 53 au fost influențate semnificativ de acest raport.
Obiectivele proiectului SB 53
SB 53 își propune să găsească un echilibru pe care guvernatorul Newsom a afirmat că SB 1047 nu l-a realizat, având ca scop crearea de cerințe semnificative de transparență pentru cei mai mari dezvoltatori de AI, fără a împiedica creșterea rapidă a industriei AI din California.
Printre prevederile proiectului se numără protecții pentru informatorii din laboratoarele AI care consideră că tehnologia companiei lor reprezintă un „risc critic” pentru societate, definit în proiect ca fiind responsabilă pentru moartea sau vătămarea a peste 100 de persoane sau provocarea de daune de peste 1 miliard de dolari.
De asemenea, proiectul vizează crearea CalCompute, un cluster public de calcul în cloud pentru a sprijini startup-urile și cercetătorii care dezvoltă AI la scară largă.
Progresul și perspectivele proiectului
Cu noile amendamente, SB 53 va fi supus aprobării Comitetului pentru confidențialitate și protecția consumatorilor din cadrul Adunării de stat din California. Dacă va fi aprobat, proiectul va trebui să treacă prin mai multe alte organisme legislative înainte de a ajunge pe masa guvernatorului Newsom.
În paralel, guvernatorul din New York, Kathy Hochul, ia în considerare un proiect de lege similar, numit RAISE Act, care ar impune, de asemenea, dezvoltatorilor mari de AI să publice rapoarte de siguranță și securitate.
Destinul legilor statale privind AI, precum RAISE Act și SB 53, a fost temporar pus în pericol în timp ce legislatorii federali au considerat o moratorie de 10 ani asupra reglementării statale a AI, dar această propunere a fost respinsă cu un vot de 99-1 în Senat în luna iulie.
Reacția industriei și provocările întâmpinate
Până în prezent, legislatorii nu au reușit să obțină sprijinul companiilor AI pentru cerințele de transparență impuse de stat. Compania Anthropic a susținut în general necesitatea de a crește transparența în rândul companiilor AI, în timp ce OpenAI, Google și Meta s-au arătat mai rezistente la aceste eforturi.
Dezvoltatorii de modele AI publică în mod obișnuit rapoarte de siguranță pentru modelele lor, dar au fost mai puțin consistenți în ultimele luni. De exemplu, Google a decis să nu publice un raport de siguranță pentru modelul său de AI, Gemini 2.5 Pro, până la câteva luni după lansare, iar OpenAI a ales să nu publice un raport pentru modelul său GPT-4.1.
SB 53 reprezintă o versiune mai moderată a proiectelor anterioare de siguranță AI, dar ar putea forța companiile de AI să publice mai multe informații decât fac în prezent. Companiile vor urmări cu atenție cum va evolua această inițiativă a senatorului Wiener.
Concluzie
Inițiativa SB 53 ar putea marca un pas semnificativ spre creșterea transparenței în dezvoltarea tehnologiilor AI, influențând astfel standardele de siguranță și responsabilitate în industrie.