Anthropic susține proiectul de lege din California pentru siguranța inteligenței artificiale, SB 53

Moderator
6 Min Citire

Sursa foto: Google Images

0:00

Anthropic susține proiectul de lege din California pentru siguranța inteligenței artificiale

Pe 27 noiembrie, Anthropic a anunțat susținerea oficială pentru SB 53, un proiect de lege din California inițiat de senatorul de stat Scott Wiener, care ar impune cerințe de transparență fără precedent pentru cei mai mari dezvoltatori de modele AI din lume. Susținerea Anthropic reprezintă o victorie semnificativă pentru SB 53, într-un moment în care mari grupuri tehnologice, precum CTA și Chamber for Progress, fac lobby împotriva acestei legi.

Obiectivele proiectului de lege

Dacă va fi adoptată, SB 53 ar impune dezvoltatorilor de modele AI de frontieră, cum ar fi OpenAI, Anthropic, Google și xAI, să dezvolte cadre de siguranță și să publice rapoarte de siguranță și securitate înainte de a desfășura modele AI puternice. De asemenea, proiectul de lege ar stabili protecții pentru denunțători, oferind siguranță angajaților care vin cu preocupări legate de siguranță.

Legea se concentrează în special pe limitarea riscurilor catastrofale asociate cu modelele AI, definind aceste riscuri ca fiind moartea a cel puțin 50 de persoane sau daune de peste un miliard de dolari. SB 53 pune accent pe aspectele extreme ale riscurilor AI, precum utilizarea modelelor AI în crearea de arme biologice sau în atacuri cibernetice, lăsând deoparte preocupările mai imediate, cum ar fi deepfake-urile sau comportamentele submisive.

Stadiul legislativ și reacțiile

Senatul Californiei a aprobat o versiune anterioară a SB 53, dar trebuie să organizeze un vot final înainte ca aceasta să avanseze la biroul guvernatorului. Guvernatorul Gavin Newsom nu a comentat până acum despre proiect, deși a respins anterior un alt proiect de lege privind AI, SB 1047, care conținea măsuri similare.

Proiectele de lege care reglementează dezvoltatorii de modele AI de frontieră s-au confruntat cu o opoziție semnificativă din partea Silicon Valley și a administrației Trump, care susțin că aceste eforturi ar putea limita inovația Americii în competiția cu China. Investitori precum Andreessen Horowitz și Y Combinator au condus opoziția împotriva SB 1047, iar administrația Trump a amenințat în mod repetat că va bloca statele să implementeze reglementări AI.

Argumentele pro și contra

Unul dintre cele mai frecvente argumente împotriva proiectelor de lege pentru siguranța AI este că statele ar trebui să lase problema în seama guvernelor federale. Matt Perault, șeful politicii AI la Andreessen Horowitz, și Jai Ramaswamy, directorul juridic, au publicat recent un articol în care afirmă că multe dintre proiectele de lege ale statelor riscă să încalce Clauza Comerțului din Constituție, care limitează guvernele statale să emită legi ce depășesc granițele acestora.

Cu toate acestea, co-fondatorul Anthropic, Jack Clark, susține că industria tehnologică va construi sisteme AI puternice în următorii ani și nu poate aștepta acțiunea guvernului federal. El a declarat că, deși preferă un standard federal, absența acestuia face ca SB 53 să reprezinte un plan solid pentru guvernanța AI.

Perspectivele viitoare

Chris Lehane, ofițerul șef pentru afaceri globale la OpenAI, a trimis o scrisoare guvernatorului Newsom în august, cerându-i să nu adopte reglementări AI care ar putea determina startup-urile să părăsească California. Deși scrisoarea nu menționa SB 53 explicit, Miles Brundage, fostul șef al cercetării politicii la OpenAI, a numit scrisoarea „plină de informații înșelătoare despre SB 53 și politica AI în general.”

SB 53 își propune să reglementeze exclusiv cele mai mari companii AI, în special pe cele care generează venituri brute de peste 500 de milioane de dolari. În ciuda criticilor, experții în politici consideră că SB 53 reprezintă o abordare mai modestă decât proiectele anterioare de siguranță AI. Dean Ball, un cercetător senior la Foundation for American Innovation și fost consilier politic pe AI la Casa Albă, a afirmat că SB 53 are șanse bune să devină lege, deoarece redactarea sa a respectat realitatea tehnică și a demonstrat o măsură de reținere legislativă.

Senatorul Wiener a declarat că SB 53 a fost influențat semnificativ de un grup de experți convocați de guvernatorul Newsom pentru a consilia California privind reglementarea AI.

Majoritatea laboratoarelor AI au deja o versiune a politicii interne de siguranță pe care SB 53 o cere. OpenAI, Google DeepMind și Anthropic publică regulat rapoarte de siguranță pentru modelele lor. Totuși, aceste companii nu sunt obligate prin lege să facă acest lucru și, uneori, nu respectă angajamentele de siguranță autoimpuse. SB 53 își propune să transforme aceste cerințe în lege.

Recent, legislatorii californieni au amendat SB 53 pentru a elimina o secțiune a legii care ar fi cerut dezvoltatorilor de modele AI să fie auditați de terțe părți, o măsură contestată de companiile tehnologice care au susținut că ar fi prea greoaie.

Concluzie

Adoptarea SB 53 ar putea stabili un precedent important în reglementarea dezvoltării inteligenței artificiale, punând în aplicare măsuri de siguranță care ar putea influența modul în care mari companii tehnologice operează și interacționează cu societatea.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *