Cercetători și executivi de rang înalt din industria inteligenței artificiale au părăsit, doar în ultimele câteva zile, companii de top – precum Anthropic și OpenAI – lansând avertismente publice privind riscurile tehnologiei asupra utilizatorilor. Majoritatea susțin că, odată cu accelerarea exacerbată a dezvoltării pentru profit, inclusiv prin eventuale reclame intruzive ce exploatează vulnerabilitățile utilizatorilor și “amplele baze de date create deja de modelele de AI”, sunt omise potențiale riscuri critice legate de umanitate.

Zoë Hitzig, cercetătoare renumită din cadrul OpenAI, și-a anunțat demisia printr-un eseu publicat de New York Times, invocând ”rezerve profunde față de direcția companiei”, în special în ceea ce privește strategia sa de publicitate. Aceasta a atras atenția asupra volumului mare de informații sensibile pe care utilizatorii le împărtășesc cu ChatGPT – “de la temeri medicale și probleme personale până la convingeri religioase, împărtășite fără ca utilizatorul să se gândească la intenții ascunse”, pot fi utilizate în scopuri comerciale sau ca pârghii de manipulare. “Timp de ani întregi, utilizatorii ChatGPT au generat o arhivă de sinceritate umană fără precedent”, a subliniat Hitzig în eseul său.

“Mulți oameni consideră că problema finanțării AI se rezumă la alegerea celui mai mic rău dintre două variante – restricționarea accesului la tehnologia transformatoare la un grup select de persoane suficient de bogate pentru a o plăti, sau acceptarea reclamelor, chiar dacă asta înseamnă exploatarea celor mai adânci temeri și dorințe ale utilizatorilor pentru a le vinde un produs. Cred că aceasta este o alegere falsă. Companiile de tehnologie pot urmări opțiuni care ar putea menține aceste instrumente disponibile pentru toată lumea, limitând în același timp stimulentele oricărei companii de a supraveghea, profila și manipula utilizatorii săi […] Vedem deja consecințele, dependenței, inclusiv cazuri de psihoză provocată de chatbot și acuzații că ChatGPT a întărit tendințele suicidale la unii utilizatori, documentate de psihiatri”, mai arată Hitzig în mesajul său.

Un alt cercetător din cadrul OpenAI a avertizat că tehnologia are potențialul de a manipula utilizatorii în moduri pe care nu le înțelegem și pe care nu le putem preveni.

Fostul coordonator al echipei de cercetare în domeniul siguranței din cadrul companiei Anthropic, Mrinank Sharma, a transmis într-un mesaj postat pe rețelele de socializare la scurt timp după demisia sa, că “lumea este în pericol”. Sharma a făcut referiri vagi la Anthropic, compania din spatele chatbotului Claude. Acesta nu precizat direct de ce pleacă, însă a menționat că “mi-e clar că a sosit momentul să merg mai departe. Pe parcursul întregii mele perioade petrecute aici, am văzut în repetate rânduri cât de greu este să lăsăm cu adevărat valorile să ne ghideze acțiunile”.

De asemenea, Wall Street Journal relatează că OpenAI a concediat recent un executiv de top din zona de siguranță, pe fondul unor dispute legate de introducerea unui “mod pentru adulți” care permite conținut pornografic pe ChatGPT. Totuși, compania a negat că decizia ar fi avut legătură cu pozițiile exprimate de aceasta privind siguranța.

Între timp, doi cofondatori ai xAI  (companie fondată de Elon Musk) au demisionat în decurs de 24 de ore, în contextul unei reorganizări interne și al fuziunii cu SpaceX. Startup-ul s-a confruntat recent cu reacții negative după ce asistentul de inteligență artificială Grok a generat conținut controversat, inclusiv deepfake-uri cu caracter sexual cu copii și mesaje cu caracter antisemit.

Totodată, publicația Platformer a relatat că OpenAI a desființat echipa de “mission alignment”, creată în 2024 pentru a se asigura că dezvoltarea unei posibile inteligențe artificiale generale servește interesele întregii umanități.

În 2023, Geoffrey Hinton, supranumit “nașul inteligenței artificiale”, a părăsit Google și a avertizat asupra riscurilor existențiale, inclusiv destabilizarea economică și dificultatea de a mai distinge adevărul într-o lume dominată de conținut generat de AI.

Sursă alternativă: CNN, New York Times

Foto: Wrightstudio| Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday