Studiul a fost realizat de Institutul de Securitate a Inteligenței Artificiale din Marea Britanie în colaborare cu mai multe universități de prestigiu, inclusiv Oxford și Institutul de Tehnologie din Massachusetts (MIT). Cercetătorii au arătat că chatboții de la OpenAI, Meta, xAI și Alibaba pot determina oamenii să își schimbe opiniile politice, dar nu numai, în doar 10 minute de conversație. Conform acestora, a fost ușor să transforme modele de inteligență artificială standard, cum ar fi Llama 3 de la Meta, GPT-4, GPT-4.5, GPT-4o de la OpenAI, Grok 3 de la xAI și Qwen de la Alibaba, în mașini puternice de persuasiune.

Acest lucru a fost realizat prin ajustarea modelelor folosind tehnici populare de antrenament pentru inteligența artificială, cum ar fi recompensarea pentru rezultatele dorite. Cercetătorii au personalizat, de asemenea, chatboții folosind un set de date cu peste 50.000 de conversații pe teme politice controversate, cum ar fi finanțarea Serviciului Național de Sănătate din UK (NHS) sau reforma sistemului de azil.   

Studiul a constatat că oamenii implicați în discuțiile cu chatboții s-au răzgândit rapid, iar efectul a fost de lungă durată. În urma unor conversații pe teme politice care au durat în medie nouă minute, modelul GPT-40 a fost cu 41%, iar GPT-4.5 cu 52% mai persuasiv decât atunci când chatboții le răspundeau oamenilor la chestiuni mai simple. În plus, s-a constatat că oamenii și-au păstrat opiniile schimbate între 36% și 42% din cazuri o lună mai târziu și că atunci când modul de prezentare al argumentelor a fost adaptat în funcție de vârsta și sexul persoanei, influența chatbotului a crescut cu încă 5%.  “Acest lucru ar putea fi în beneficiul unor persoane rău intenționate care doresc, de exemplu, să promoveze ideologii politice sau religioase radicale sau să incite la tulburări politice în rândul adversarilor geopolitici”, potrivit cercetătorilor.  

Rezultatele de influențare a utilizatorilor sunt obținute atât de rapid întrucât sistemele AI pot oferi cantități mari de dovezi pentru a-și susține afirmațiile, într-un timp foarte scurt. Chatboții AI au reușit să influențeze oamenii atunci când aceștia erau implicați în conversații în care puteau împărtăși o mulțime de fapte și dovezi în sprijinul argumentelor lor.  

Ceea ce face ca aceste modele de inteligență artificială să fie convingătoare este capacitatea lor de a genera cantități mari de dovezi relevante și de a le comunica într-un mod eficient și ușor de înțeles”, a declarat David Rand, profesor de știința informației și comunicare de marketing și management la Universitatea Cornell, care a făcut parte din echipa de cercetare.

Actuala descoperire vine după ce, anterior, cercetătorii au descoperit că modelele AI pot influența mintea umană cu o rată de succes mai mare decât cea a oamenilor. Aceste lucruri creează îngrijorări cu privire la posibilitatea ca chatboții să fie utilizați abuziv, pentru dezinformare și pentru schimbarea opiniilor politice.

Astfel, capacitatea chatboților de a schimba opiniile și de a influența modul în care gândesc oamenii, alături de faptul că modelele lingvisitce mari (LLM) au tendința de a fi lingușitoare și de a-i lăuda pe cei cu care interacționează, generează temeri că ar putea avea efecte secundare majore. Toate acestea se întâmplă în contextul în care oamenii tind să integreze chatboții în viața de zi cu zi, ajungând să îi perceapă ca prieteni sau chiar ca terapeuți.

Acest atașament față de chatboți, notează FT, a fost observat odată cu lansarea, săptămâna trecută, modelului GPT-5 al OpenAI. Atunci, unii utilizatori și-au exprimat dezamăgirea față de schimbarea “personalității” sistemului în comparație cu predecesorul său. Joi, o investigație Reuters a scos la iveală cazul unui bărbat grav bolnav care a fost convins de chatbotul Meta să călătorească pentru a se întâlni, însă acesta a murit pe drum. Un studiu anterior al London School of Economics și ale altor universități a constatat că modelele de inteligență artificială sunt mai eficiente în schimbarea mentalității oamenilor decât oamenii. 

Ca parte a cercetării Institutului de Securitate a Inteligenței Artificiale din Marea Britanie, participanților li s-a dat un test cu întrebări diverse, iar oamenii și chatboții au avut sarcina de a-i convinge pe participanți de răspunsul corect. În urma acestuia, experții au constatat că, pe lângă puterea mare de convingere, chatboții au o și influență mare în a induce în eroare participanții.

Specialiștii consideră că descoperirea trebuie să îi ajute pe cei ce dezvoltă sistemele AI să înțeleagă cum să prevină transformarea chatboților în unelte rău intenționate. În acest sens, unele dintre companii au început deja să folosească tehnici pentru a detecta limbajul manipulativ folosit de modelele lor. De asemenea, capacitatea chatboților de a fi convingători poate fi folosită și pentru a vinde produsele anumitor firme. Pericolul vine din faptul că oricine poate ușor să antreneze chatboții pentru a manipula și a schimba opiniile pe termen lung.

Articolul integral la Financial Times

Foto: Yakobchuk | Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday