Finanțare semnificativă pentru Irregular
Compania de securitate în domeniul inteligenței artificiale Irregular a anunțat obținerea a 80 de milioane de dolari într-o rundă de finanțare condusă de Sequoia Capital și Redpoint Ventures, cu participarea CEO-ului Wiz, Assaf Rappaport. O sursă apropiată negocierii a menționat că această rundă evaluează compania la 450 de milioane de dolari.
Viziunea fondatorilor
Co-fondatorul Dan Lahav a declarat că, în curând, o mare parte din activitatea economică va proveni din interacțiunile între oameni și inteligența artificială, precum și între inteligențele artificiale. „Aceasta va afecta stiva de securitate în mai multe puncte”, a adăugat el.
Activitatea și abordarea Irregular
Cunoscută anterior sub numele de Pattern Labs, Irregular este deja un jucător important în evaluările AI. Compania este citată în evaluările de securitate pentru modelele Claude 3.7 Sonnet și OpenAI o3 și o4-mini. Framework-ul companiei pentru evaluarea capacității de detectare a vulnerabilităților modelelor, denumit SOLVE, este utilizat pe scară largă în industrie.
Detectarea riscurilor emergente
Pe lângă munca semnificativă depusă în evaluarea riscurilor existente ale modelelor, Irregular strânge fonduri cu scopul de a identifica riscuri și comportamente emergente înainte de a deveni evidente. Compania a construit un sistem complex de medii simulate, care permite testarea intensivă a unui model înainte de lansare.
Simulări complexe pentru evaluarea securității
Co-fondatorul Omer Nevo a explicat: „Avem simulări de rețea complexe în care inteligența artificială joacă atât rolul atacatorului, cât și al apărătorului. Astfel, atunci când un model nou este lansat, putem observa unde se mențin apărarea și unde nu.”
Focus pe securitate în industria AI
Securitatea a devenit un punct de interes intens pentru industria inteligenței artificiale, pe măsură ce riscurile potențiale asociate cu modelele avansate devin mai evidente. OpenAI a revizuit măsurile sale interne de securitate în această vară, având în vedere posibilele acte de spionaj corporativ.
Provocările viitoare în securitatea AI
Fondatorii Irregular consideră că provocările de securitate generate de capacitățile în creștere ale modelelor de limbaj mari sunt abia la început. „Dacă scopul laboratorului de frontieră este de a crea modele din ce în ce mai sofisticate și capabile, scopul nostru este de a asigura aceste modele,” a spus Lahav. „Dar este un obiectiv în continuă schimbare, astfel că mai este mult de lucru în viitor.”
Obținerea acestei finanțări reflectă importanța tot mai mare a securității în dezvoltarea inteligenței artificiale și pregătește terenul pentru soluții inovatoare în protejarea modelelor avansate de AI.