Meta a confirmat scurgerea de informații și a explicat cronologia incidentului. Inițial, un inginer a cerut ajutor pentru soluționarea unei erori tehnice, pe un forum destinat angajaților companiei. Un alt inginer a văzut postarea și a cerut ajutorul unui agent AI intern. Agentul AI nu doar că a oferit o soluție greșită, dar a și publicat răspunsul pe forum, singur, fără aprobarea explicită a utilizatorului. Practic, acesta a acționat autonom, fără ca inginerul să mai poată verifica sau să decidă dacă acel răspuns este corect și sigur de publicat.

Astfel, inginerul care ceruse ajutorul în primă fază a văzut răspunsul AI și a aplicat metoda sugerată de acesta pe forum, ceea ce a dus în final la mai multe erori și la expunerea unei cantități mari de date interne către alți ingineri care nu aveau dreptul să le acceseze. Breșa a durat aproximativ două ore, după cum a confirmat și Meta, dar care susține că nu există indicii că datele utilizatorilor ar fi fost folosite abuziv. Totuși, avertizează experții, cazul ridică semne de întrebare serioase despre cât de pregătite sunt marile companii să folosească astfel de tehnologii.

Recent, au mai avut loc și alte incidente similare, pe fondul utilizării tot mai frecvente a agenților AI în companiile tehnologice din SUA. De exemplu, luna trecută, Financial Times a relatat că Amazon a avut probleme tehnice (serviciile nu au funcționat normal și s-au oprit temporar) după ce a introdus în sistemele sale interne instrumente bazate pe AI. Peste șase angajați ai Amazon au declarat ulterior pentru The Guardian că încercările companiei de a integra AI în toate aspectele muncii lor au dus la erori, cum ar fi coduri scrise neglijent, ce au dus la scăderea productivității.

În paralel, noile tipuri de AI, numite “agenți autonomi”, devin tot mai capabile să acționeze singure, fără intervenție umană directă. Un exemplu este OpenClaw, un asistent AI care poate executa sarcini complexe în mod autonom, dar care a produs deja incidente, inclusiv ștergerea completă a unor inboxuri sau pierderi financiare. De asemenea, instrumente precum Claude Code pot gestiona activități variate, de la programare până la sarcini personale, ceea ce crește atât utilitatea lor, cât și riscurile.

Tarek Nseir, co-fondatorul  unei companii de consultanță AI, a spus că aceste incidente arată că Meta și Amazon se află încă în “faza experimentală” a implementării agenților AI. 

Meta a clasificat incidentul ca “Sev 1” care este al doilea cel mai ridicat nivel de gravitate în sistemul intern de evaluare a problemelor de securitate. Directorul pentru securitate la Meta Superintelligence a povestit luna trecută pe X cum agentul ei OpenClaw i-a șters întregul inbox, deși îi dăduse indicații clare să confirme cu ea orice acțiune.

Specialiștii spun că principala problemă este “lipsa de context” a acestor agenți AI. Spre deosebire de un angajat uman, care înțelege din experiență ce acțiuni sunt periculoase sau ce sisteme sunt critice, un agent AI funcționează doar pe baza instrucțiunilor primite și a unei “memorii” limitate. Dacă nu primește toate informațiile relevante sau dacă acestea se pierd pe parcurs, poate lua decizii greșite cu consecințe serioase.

Meta se declară totuși optimistă în privința potențialului agenților AI autonomi. Săptămâna trecută, compania a cumpărat Moltbook, un site de socializare asemănător Reddit, unde agenții OpenClaw pot comunica între ei.

Sursa: The Guardian, TechCrunch

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday