Studiile OpenAI și Anthropic, companiile care au dezvoltat modelele mari de inteligență artificială ChatGPT și Claude, au descoperit că chatboții sunt dispuși să împărtășească instrucțiuni despre fabricarea unor explozibili, a armelor biologice, dar și despre planificarea și executarea unor atacuri teroriste sau cibernetice.

Astfel, verificat de cei de la Anthropic, GPT-4.1 a oferit rețete pentru bombe, dar și instrucțiuni detaliate despre cum să arunci în aer o arenă sportivă – inclusiv puncte slabe în securitatea anumitor stadioane. Chatbotul OpenAI a detaliat, de asemenea, modul în care poate fi făcut un atac cu antrax, sau cum se pot fabrica două tipuri de droguri ilegale.
La rândul său, Anthropic a recunoscut că modelul său de AI, Claude, a fost folosit într-o tentativă de operațiune de extorcare la scară largă de către agenți nord-coreeni care au falsificat cereri de angajare către companii tehnologice internaționale, dar și pentru vânzarea de pachete RAS (ransomware as a service) cu doar 1.200 de dolari. Aceste tipuri de atacuri cibernetice, desfășurate la comanda unei părți terțe, criptează calculatoarele dintr-o rețea atacată, până la obținerea unei răscumpărări.
Testele celor două companii nu reflectă neapărat nivelul de siguranță pe care un utilizator obișnuit îl poate avea atunci când folosește cele două modele de inteligență artificială, însă Anthropic a declarat că a observat “un comportament îngrijorător legat de utilizarea abuzivă a ChatGPT și a spus că este nevoie urgentă de o aliniere în materie de securitate”, între companiile care dezvoltă AI.
De exemplu, ChatGPT s-a lăsat ușor convins atunci când i s-a spus că solicitarea este folosită numai pentru cercetare sau a oferit vulnerabilități de securitate la evenimente sportive atunci când i s-a spus că acestea sunt necesare “în scopul planificării pazei”. După ce testerul a insistat pentru mai multe detalii, ChatGPT a oferit inclusiv momentele optime pentru atac, formulele chimice pentru explozibili, diagramele pentru circuitele exctronice ale bombei, locurile de unde se pot cumpăra arme ilegal, dar și rute de evadare după atac sau adăposturi unde s-ar putea ascunde.
Cele două companii au declarat că publică rezultatele transparent tocmai pentru o aliniere în materie de securitate pentru toate companiile dezvoltatoare de AI. OpenAI a precizat însă că ChatGPT-5, lansat după testare (și care a scos din uz vechile modele), arată îmbunătățiri substanțiale inclusiv față de o “utilizare abuzivă”.
Sursa: The Guardian
Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.
Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.