Legea UE privind Inteligența Artificială
Legea privind inteligența artificială a Uniunii Europene, cunoscută sub denumirea de EU AI Act, a fost descrisă de Comisia Europeană ca fiind „prima lege cuprinzătoare a AI din lume.” După ani de dezbateri, aceasta devine treptat o parte din realitatea celor 450 de milioane de oameni care trăiesc în cele 27 de țări ale UE.
Aplicabilitate și scop
EU AI Act nu se limitează doar la companiile europene; se aplică atât firmelor locale, cât și celor străine, influențând atât furnizorii, cât și utilizatorii sistemelor AI. Legea are rolul de a crea un cadru legal uniform pentru utilizarea AI în întreaga UE, asigurând astfel „libera circulație transfrontalieră a bunurilor și serviciilor bazate pe AI” fără restricții locale divergente.
Obiectivele principale ale EU AI Act
Conform legislatorilor europeni, scopul principal al acestui cadru este de a „promova utilizarea unei AI centrate pe om și de încredere, asigurând în același timp un nivel ridicat de protecție a sănătății, siguranței și drepturilor fundamentale.” Legea vizează prevenirea efectelor dăunătoare ale sistemelor AI, susținând în același timp inovația. Aceasta necesită o echilibrare între inovație și prevenirea riscurilor, precum și între adoptarea AI și protecția mediului.
Abordarea bazată pe risc
EU AI Act adoptă o abordare bazată pe risc pentru a echilibra prevenirea daunelor cu beneficiile potențiale ale AI. Legea interzice anumite utilizări considerate „inacceptabile”, reglementează strict utilizările „cu risc ridicat” și impune obligații mai ușoare în scenarii de „risc limitat.”
Implementarea EU AI Act
Implementarea EU AI Act a început pe 1 august 2024, dar va intra în vigoare printr-o serie de termene de conformitate. Prima dată limitată la 2 februarie 2025, s-a concentrat pe interdicții asupra unui număr mic de utilizări interzise ale AI. Majoritatea prevederilor vor fi aplicate până în mijlocul anului 2026.
Modificări importante din 2 august 2025
De la 2 august 2025, EU AI Act se aplică „modelurilor AI de utilizare generală cu risc sistemic.” Aceste modele, antrenate cu o cantitate mare de date, pot avea riscuri sistemice, inclusiv riscuri legate de dezvoltarea armelor chimice sau biologice.
Sanțiuni și aplicabilitate
Legea prevede sancțiuni care trebuie să fie „eficiente, proporționale și descurajante,” inclusiv pentru jucători globali mari. Sancțiunile variază în funcție de nivelul de risc, infracțiunile asupra aplicațiilor interzise având o penalizare de până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală. Penalizările pentru furnizorii de modele AI de utilizare generală pot ajunge până la 15 milioane de euro sau 3% din cifra de afaceri anuală.
Reacția companiilor tech
Companiile din domeniul tehnologiei au reacționat variat la aceste reglementări. De exemplu, Meta a refuzat să semneze un cod de practică voluntar, considerând că legea este o „depășire,” în timp ce Google a confirmat semnarea acestuia, deși cu rezerve. Alte companii, precum Amazon, Anthropic și Microsoft, au aderat la codul de practică, dar semnarea nu garantează o susținere totală.
Proiecția viitoare
În iulie 2025, Uniunea Europeană a respins cererile de amânare a implementării EU AI Act, menținând termenul stabilit pentru 2 august 2025. Legislația rămâne un subiect de dezbatere intensă, cu implicații semnificative pentru viitorul dezvoltării și utilizării inteligenței artificiale în Europa.
În concluzie, EU AI Act este un pas semnificativ în reglementarea inteligenței artificiale, având potențialul de a influența modul în care această tehnologie este dezvoltată și utilizată, atât în Europa, cât și la nivel global.