Google anunță că instrumentul său de detectare a erorilor, bazat pe inteligență artificială, a descoperit 20 de vulnerabilități de securitate

Moderator
2 Min Citire

Sursa foto: Google Images

0:00

Google anunță descoperirea a 20 de vulnerabilități de securitate

Google a anunțat că instrumentul său de detectare a erorilor, bazat pe inteligență artificială, a identificat un lot inițial de vulnerabilități de securitate. Heather Adkins, vicepreședinta securității Google, a declarat că cercetătorul de vulnerabilități Big Sleep, dezvoltat de departamentul de inteligență artificială DeepMind și echipa de hackeri Project Zero, a raportat 20 de erori în diverse software-uri open source populare.

Detalii despre Big Sleep

Big Sleep a găsit vulnerabilități în software-uri open source renumite, precum biblioteca audio și video FFmpeg și suita de editare a imaginilor ImageMagick. Deși aceste vulnerabilități nu au fost încă remediate, Google nu a oferit detalii despre impactul sau severitatea lor, conform politicii standard de a aștepta corectarea erorilor înainte de a oferi informații suplimentare.

Colaborarea om-AI

Kimberly Samra, purtătoarea de cuvânt a Google, a explicat că, pentru a asigura rapoarte de calitate și acționabile, un expert uman este implicat înainte de raportare, însă fiecare vulnerabilitate a fost identificată și reprodusă de agentul AI fără intervenție umană.

Perspectivele și provocările instrumentelor AI

Royal Hansen, vicepreședintele ingineriei Google, a afirmat că aceste descoperiri reprezintă „o nouă frontieră în descoperirea automată a vulnerabilităților”. Există deja instrumente bazate pe LLM care pot căuta și identifica vulnerabilități, precum RunSybil și XBOW. XBOW a câștigat atenția după ce a ajuns pe primul loc într-unul dintre clasamentele platformei de bug bounty HackerOne.

Feedback-ul din comunitate

Vlad Ionescu, cofondator și CTO al RunSybil, a subliniat că Big Sleep este un proiect „legitim”, având un design bun și o echipă experimentată. Totuși, au existat și plângeri din partea dezvoltatorilor de software cu privire la raportele de erori care s-au dovedit a fi „halucinații” ale AI-ului, generând confuzie și frustrări în comunitate.

Concluzie

Descoperirea acestor vulnerabilități de către Big Sleep subliniază potențialul instrumentelor AI în domeniul securității cibernetice, dar scoate în evidență și provocările asociate cu raportarea erorilor, necesitatea verificării umane și riscurile de a genera false alarme.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *