Punctele slabe au fost identificate de informaticienii de la Institutul guvernamental de Securitate al Inteligenței Artificiale și de experți de la universitățile Stanford, Berkeley și Oxford, care au analizat peste 440 de teste de referință. Defectele “subminează validitatea afirmațiilor rezultate, iar scorurile de siguranță ar putea fi înșelătoare sau irelevante”, se arată în cercetare.

Andrew Bean, autor principal și cercetător la Oxford Internet Institute, a declarat că multe dintre teste sunt folosite pe noile modele de inteligență artificială lansate de marile companii de tehnologie: “Fără definiții comune și măsurători fiabile, devine dificil să știm dacă modelele se îmbunătățesc cu adevărat sau doar par că se îmbunătățesc”.

Pe măsură ce lansările de noi modele de inteligență artificială devin tot mai frecvente, a crescut și preocuparea cu privire la siguranță și eficacitate. Unele companii au fost obligate să retragă sau să introducă restricții, prin actualizări, la sistemele lor AI, după ce acestea din urmă au dus la defăimarea unor persoane sau chiar la sinucideri.

Un exemplu concret este retragerea lui Gemma, în weekend, de către Google, după ce sistemul a formulat acuzații nefondate la adresa unei senatoare americane. De asemenea, săptămâna trecută, Character.ai a interzis utilizatorilor adolescenți să poarte conversații deschise cu chatboții săi. În SUA, compania este acuzată că chatboții săi au îndemnat minorii să se autovotămeze sau să se sinucidă.

Sursă: The Guardian

Foto: Thekaikoro | Dreamstime

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday