Pe măsură ce SUA, China și alte câteva națiuni progresează rapid în domeniul inteligenței artificiale iar natura războiului pare a fi remodelată, perspectiva devine din ce în ce mai îngrijorătoare – AI se apropie de momentul în care “va avea decizia de a alege cine moare și cine trăiește”. În acest context, mai multe țări cer Organizației Națiunilor Unite să formuleze și să impună juridic un set de reguli obligatorii care să limiteze acest lucru, cel puțin în domeniul armelor nucleare.
“Acesta este într-adevăr unul dintre cele mai importante puncte de inflexiune pentru omenire. Rolul oamenilor în utilizarea forței este o problemă de securitate absolut fundamentală, o problemă juridică și o problemă etică”, a declarat Alexander Kmentt, negociatorul șef al Austriei pe această temă.
Cu toate acestea, deși ONU a pus la dispoziția statelor o platformă unde să-și exprime îngrijorarea, NYT scrie că este puțin probabil, din punct de vedere juridic, ca organizația să poată impune restricții în absența unui acord al marilor puteri, membre permanente în Consiliul de Securitate, unde deciziile se iau cu unanimitate. SUA, Rusia, Australia, Israel și alte țări au susținut că deocamdată nu este nevoie de o nouă legislație internațională, în timp ce China dorește să definească orice limită legală în așa fel încât să aibă, practic, un efect redus, mai arată analiza NY Times.
Dezbaterea privind riscurile pe care dezvoltarea rapidă a inteligenței artificială le aduce a redevenit un subiect important în ultimele zile, pe fondul haosului de la OpenAI, cea mai importantă și mai avansată companie din domeniul inteligenței artificiale, ai cărei lideri au părut să se contrazică pe tema combaterii eficiente a pericolelor reprezentate de tehnologie. De asemenea, săptămâna trecută, oficiali din China și SUA au discutat o problemă asemănătoare, privind potențialele limite raportate la utilizarea AI în deciziile ce implică armele nucleare. Este posibil ca acest subiect să fi fost discutat și la întâlnirea dintre Xi Jinping și Joe Biden.
SUA susțin că, în loc de introducerea unei noi legislații internaționale, ONU ar trebui să clarifice faptul că legile existente privind drepturile omului interzic deja națiunilor să folosească arme care țintesc civili sau care le pot provoca pagube considerabile.
Dar ambiguitatea marilor puteri în acest domeniu nu a făcut decât să crească anxietatea națiunilor mai mici, care se declară îngrijorate că armele autonome letale, așa cum ar fi dronele controlate de AI, ar putea deveni o realitate frecventă pe câmpul de luptă înainte de a se ajunge la un acord asupra unor reguli de limitare a utilizării acestora.
“Progresele rapide în inteligența artificială și utilizarea intensă a dronelor în conflictele din Ucraina și Orientul Mijlociu fac problema mult mai urgentă. Deocamdată dronele se bazează, în general, pe operatorii umani pentru a îndeplini misiunile letale, dar softuri care să le permită să găsească și să selecteze ținte mai mult pe cont propriu, sunt în curs de dezvoltare”, mai scrie publicația americană.
Sursă: The New York Times
Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.
Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.