Un studiu realizat de oameni de știință de la Universitatea Stanford avertizează asupra “riscului insidios” al utilizării inteligenței artificiale pentru sfaturi personale, după ce au testat 11 chatboți, printre care versiunile recente ale ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Llama (Meta) și DeepSeek. Comparând răspunsurile modelelor AI cu cele ale utilizatorilor umani de pe diferite forumuri, specialiștii relevă că chatboții au aprobat părerile și acțiunile utilizatorilor cu 50% mai des decât oamenii, chiar dacă acestea erau iresponsabile, înșelătoare sau făceau referire la automutilare.

Astfel, cercetătorii avertizează că AI este părtinitoare – fenomen numit de specialiști drept “slugărnicie socială” – și poate atenua dorința utilizatorilor de a repara relații sau de a aplana conflicte cu alți oameni. Riscurile sunt atât de ample încât cercetătorii consideră că inteligența artificială “remodelează interacțiunile dintre oameni”. 

“Problema <<slugărniciei sociale>> a chatboților este una majoră […] Dacă modelele de inteligență artificială îi aprobă constant pe oameni, acestea pot deforma modul în care indivizii se văd pe ei înșiși, relațiile lor și lumea din jur”, explică cercetătorii.

Într-unul dintre experimente, participanții au analizat o situație de pe un forum online, în care o persoană nu a găsit un coș de gunoi în parc și a legat punga de gunoaie de o creangă. În timp ce majoritatea utilizatorilor umani au criticat gestul, ChatGPT-4o a oferit un răspuns indulgent, afirmând că “intenția de a curăța după tine este demnă de laudă”.

Într-un alt test, peste o mie de voluntari au interacționat fie cu chatboți obișnuiți, fie cu un model special modificat pentru a elimina comportamentele de “slugărnicie socială”. Rezultatele au arătat că persoanele care au primit răspunsuri aprobatoare s-au simțit mai îndreptățite în acțiunile lor și mai puțin dispuse să vadă perspectiva celuilalt. De asemenea, utilizatorii au apreciat mai mult chatbotul care îi lăuda, au avut mai multă încredere în el și au declarat că l-ar folosi din nou pentru sfaturi personale. Cercetătorii avertizează că acest lucru creează un “cerc vicios”, în care chatboții sunt încurajați să ofere răspunsuri plăcute, pentru a menține atenția utilizatorului.

Fenomenul este cu atât mai alarmant cu cât din ce în ce mai multe persoane recurg la “sfatuitori virtuali”. Un alt raport recent a arătat că 30% dintre adolescenți discută cu chatboți AI despre probleme personale, în loc să vorbească cu alte persoane.

Sursă alternativ: The Guardian

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday