Reunite la Summitul pentru Siguranța Inteligenței Artificiale de la Seul, companiile s-au înțeles între ele să introducă un sistem global de control pentru a asigura dezvoltarea fără riscuri a celor mai avansate modele de inteligență artificială.

Dezvoltatorii de modele AI au fost de acord să stabilească împreună “liniile roșii”, modul în care vor măsura pericolul, precum și utilizarea într-un mod neadecvat a sistemelor AI. Aceste riscuri includ, dar nu se limitează la, atacuri cibernetice automatizate sau dezvoltarea de arme biologice (având în vedere eficiența AI în cercetarea medicală).

Marile companii tehnologice sunt de acord să implementeze un buton de urgență (“kill switch”) care ar opri imediat dezvoltarea unui model AI care nu poate garanta atenuarea acestor riscuri. De altfel, pactul prevede implicarea guvernelor din țările de origine ale companiilor în definirea și controlul acestor “linii roșii”.

Uniunea Europeană a dat marți votul final pentru prima legislație din lume care stabilește limite pentru dezvoltarea inteligenței artificiale, dar astfel de reguli nu există în SUA, UK sau China.

Sursă alternativă: CNBC

Foto: Alexandersikov | Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday