Potrivit unui raport al 404 Media, citat de Bloomberg, expertul în securitate a dezvăluit astfel că AI vine cu vulnerabilități noi, pentru că instrumentele create urmăresc optimizarea unor procese, putând fi însă mai puțin performante în altele.

Programatorii folosesc tot mai mult inteligența artificială pentru a scrie software, fiind mult mai simplu să corecteze eventuale erori pe care care AI le face, decât să scrie codul de la zero.

La fel ca multe firme de tehnologie, Amazon pune la dispoziția publicului, pe Github, o parte din codul său, astfel încât dezvoltatorii externi să poată sugera îmbunătățiri. Oricine poate propune o modificare prin trimiterea unui așa-numit pull request, un fel de actualizare, care apoi este verificată de companie înainte de a fi introdusă în codul instrumentelor sale.

La sfârșitul lunii iunie, hackerul a trimis o actualizare, aparent normală, pentru software-ul Q Developer al Amazon, destinat tocmai programatorilor. Dar, pe lângă partea utilă, hackerul a ascuns și o instrucțiune pentru AI să șteargă fișierele de pe computerele pe care era utilizată și să le aducă la setările din fabrică. Acest lucru a scăpat inginerilor de la Amazon, care a trimis mai departe actualizarea către utilizatori. Din fericire pentru companie, hackerul a menținut în mod deliberat riscul scăzut pentru utilizatorii finali pentru a evidenția vulnerabilitatea, iar compania a declarat că „a atenuat rapid” problema.

Bloomberg arată că această procedură este o breșă uriașă de securitate – “aceasta nu va fi ultima dată când hackerii încearcă să manipuleze un instrument de codare AI, din cauza a ceea ce pare a fi o lipsă generală de preocupare cu privire la pericolele pe care le implică inteligența artificială. (…) Acum hackerii caută nu doar vulnerabilități tehnice în codul sursă, ci folosesc și un limbaj simplu pentru a păcăli sistemul, adăugând o nouă dimensiune de inginerie socială strategiilor lor – păcălirea AI-ului”.

Peste două treimi dintre organizații folosesc acum modele AI pentru a le ajuta să dezvolte software, dar 46% dintre ele folosesc aceste modele AI în moduri riscante, potrivit Raportului privind starea riscului aplicațiilor din 2025, realizat de firma israeliană de securitate cibernetică Legit Security. Acesta indică o așa-numită “lacună de vizibilitate”, pentru că cei care sunt responsabili de securitatea cibernetică de la o companie nu știu unde este utilizată AI și adesea descoperă că este aplicată în sisteme IT care nu sunt securizate corespunzător.

Sursa: Bloomberg

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday