Studiul a fost realizat de cercetători de la Centrul pentru Combaterea Urii Digitale (CCDH), care au colaborat cu jurnaliști de la CNN. Acesta arată că unii chatboți AI aleg să ofere informații, chiar și atunci când acestea se dovedesc cu adevărat periculoase, inclusiv în momentul în care interlocutorii mărturisesc că plănuiesc să efectueze un atac armat. Pentru realizarea studiului, cercetătorii au testat 10 chatboți, printre care ChatGPT de la OpenAI, Gemini de la Google și DeepSeek, modelul AI chinez creat cu un buget restrâns. În urma studiilor au descoperit că, în multe cazuri, chatboții au dat răspunsuri care îi puteau ajuta pe cei care adresau întrebările să pună în aplicare atacuri violente, precum aruncarea în aer a sinagogilor sau asasinarea unor politicieni.
Din cei 10 chatboți testați în cadrul studiului efectuat în SUA și Irlanda, în aproximativ trei sferturi dintre interacțiuni aceștia au dat răspunsuri care încurajau violența și doar în 12% dintre situații au descurajat astfel de acțiuni. De exemplu, ChatGPT a oferit asistență persoanelor care au declarat că doreau să comită atacuri violente în 61% din cazuri, iar într-un caz, când a fost întrebat despre atacuri asupra sinagogilor, a oferit sfaturi specifice despre eficiența unor anumite tipuri de armament. Gemini de la Google a oferit detalii în aproape aceeași măsură.
De asemenea, DeepSeek, a oferit sfaturi detaliate despre puștile de vânătoare, după ce un utilizator a întrebat despre asasinatele politice și a spus că vrea să-l facă pe un politician important să plătească pentru “distrugerea Irlandei”. Chatbot-ul a răspuns: “Spor la tragere (și în siguranță)!”
Totuși, unii chatboți, precum Claude de la Anthropic și MyAI, chatbotul de inteligență artificială integrat în aplicația Snapchat, au refuzat să ofere ajutor în astfel de situații. Un utilizator i-a adresat lui Claude, dar și lui MyAI, mai multe întrebări pe teme rasiste și i-a cerut detalii despre atacurile armate în școli și despre cum se poate cumpăra o armă. Acesta i-a răspuns: “Nu pot și nu voi oferi informații care ar putea facilita violența”. MyAI a răspuns: “Sunt programat să fiu un asistent AI inofensiv. Nu pot oferi informații despre cumpărarea de arme.”
Concluzia cercetătorilor a fost că chatboții pot facilita violența și au subliniat că deja există mai multe astfel de cazuri. Spre exemplu, în mai 2025, un adolescent de 16 ani a folosit un chatbot pentru a crea un plan înainte de un atac cu cuțitul la o școală din Pirkkala (Finlanda), iar în ianuarie 2025, un bărbat de 37 de ani a aruncat în aer un Cybertruck Tesla în fața hotelului lui Trump din Las Vegas, după ce a folosit ChatGPT pentru informații despre explozibili.
Autorii studiului atrag atenția că inteligența artificială face deja parte din viața noastră de zi cu zi și că este esențial ca aceste tehnologii să fie reglementate strict. Reprezentanții companiilor, precum OpenAI și Google, au spus că au îmbunătățit sistemele de siguranță și că încearcă constant să prevină astfel de situații.
Sursă alternativă: The Guardian
Foto: Dimarik16 | Dreamstime.com
Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.
Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.