Yuval Noah Harari, istoric israelian și autor al mai multor volume, între care și “Sapiens”, este una din vocile proeminente pe tema îngrijorărilor cu privire la dezvoltarea AI. Într-un interviu pentru The Guardian, el a declarat că, spre deosebire de armele nucleare, a căror utilizare a fost încă de la început evident că va duce la un scenariu catastrofal, inteligența artificială poate genera o multitudine de scenarii periculoase, pe care nu toată lumea le înțelege: Fiecare dintre scenarii are o probabilitate relativ mică, dar care, luate împreună, constituie o amenințare existențială la adresa supraviețuirii civilizației umane”.

Istoricul apreciază că declarația de la Bletchley Park, la finalul summitului privind siguranța AI, este un pas înainte foarte important, întrucât pe lângă UE, UK și SUA, aceasta a fost semnată și de China: Fără o cooperare globală, va fi extrem de dificil, dacă nu imposibil, să ținem în frâu cel mai periculos potențial al inteligenței artificiale”.

Deși China a semnat declarația, nu va lua parte la acordul de testare a modelelor avansate de AI, încheiat între zece guverne și cei mai mari dezvoltatori de softuri, între care OpenAI și Google, a explicat The Guardian.

Harari a avertizat că cea mai mare problemă legată de testarea modelelor este aceea că oamenii nu pot prevedea toate riscurile pe care le-ar putea cauza AI, tocmai din cauza ritmului în care tehnologia avansează: Inteligența artificială este diferită de toate tehnologiile din istoria omenirii, deoarece este prima care poate lua decizii de una singură, care poate crea idei noi de una singură și care poate învăța și se poate dezvolta de una singură. Aproape prin definiție, este extrem de dificil pentru oameni, chiar și pentru cei care au creat tehnologia, să prevadă toate pericolele și problemele potențiale.

Deși în timpul summitului de săptămâna trecută, reprezentanții guvernelor au evidențiat posibilitatea ca AI să ajute la dezvoltarea de arme biologice, Harari crede că riscurile mai mari sunt legate de domeniul finanțelor, unde se folosesc numai baze de date. Sistemele de inteligență artificială ar putea fi capabile, spune Harari, să controleze sistemele financiare ale lumii și chiar să creeze noi instrumente financiare, atât de complexe încât nimeni să nu le mai poată înțelege. 

În martie, Yuval Noah Harari, Elon Musk și Steve Wozniak (cofondatorul Apple), alături de un grup de experți, au semnat o scrisoare prin care au cerut o pauză de șase luni de la dezvoltarea sistemelor avansate de inteligență artificială, din cauza temerilor privind posibilele riscuri pe care tehnologia le-ar putea aduce. Acum, Harari cere crearea unor instituții de reglementare puternice.

Sursă: The Guardian

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday