Heidy Khlaaf, cercetător șef în domeniul inteligenței artificiale la AI Now Institute, explică faptul că deși modelele de inteligență artificială sunt folosite în prezent la sarcini ușoare, precum comunicare, scrierea de cod și rezolvarea problemelor IT, prelucrarea datelor, ele pot duce la riscuri pentru infrastructura civilă și cea de apărare. 

Khlaaf dă exemplul organizației US Africa Command, structura de comandă responsabilă pentru coordonarea și supravegherea tuturor operațiunilor militare americane desfășurate în Africa, care folosește programele OpenAI de inteligență artificială pentru procesarea și analizarea datelor. Deși sarcinile AI sunt de ordin administrativ, rezultatele pot influența decizii militare critice – de exemplu, analiza unor informații greșite ar putea duce la decizii tactice eronate sau daune civile, explică cercetătorul pentru Financial Times. 

Acesta arată că s-a demonstrat în repetate rânduri că sistemele AI “fabrică” anumite răspunsuri și rezultate, creând posibilitatea apariției unor vulnerabilități și a manipulării datelor. În plus, există riscul ca sistemele să fie influențate de hackeri să ofere anumite răspunsuri celor care le utilizează. 

Pe lângă aceste atacuri, există și problema corelațiilor statistice ale AI, deoarece nu se bazează pe dovezi reale, raționament sau “cauză”, ci pe rezultate bazate pe corelații statistice și probabilistice din date anterioare. De exemplu, cercetătorii de la Universitatea Cornell au descoperit, anul trecut, că ChatGPT, GitHub Copilot și Amazon CodeWhisperer au generat coduri corecte în proporție de 65,2%, 46,3% și, respectiv, 31,1%. În acest fel, deși companiile din domeniu promit îmbunătățiri, ratele de erori rămân prea ridicate pentru a fi folosite în sarcini care necesită precizie și siguranță, mai ales în domeniul militar.  

Anul acesta, US Air Force și Space Force au lansat un chatbot de inteligență artificială denumit Non-classified Internet Protocol Generative Pre-training Transformer, sau NIPRGPT. Acesta poate “să răspundă la întrebări și să ajute la sarcini precum corespondența, documentele de referință și codul”. Între timp, Marina SUA a dezvoltat un model conversațional de asistență tehnică AI pe care îl numește Amelia. “Organizațiile militare își justifică utilizarea modelelor AI susținând că acestea sporesc eficiența, precizia și scalabilitatea. În realitate, achiziționarea și adoptarea acestora dezvăluie o lipsă îngrijorătoare de conștientizare a riscurilor pe care le prezintă”, subliniază Heidy Khlaaf, care conchide: “În căutarea unor potențiale utilizări eficiente în viitor, utilizarea instrumentelor AI de către agențiile militare introduce riscuri reale, care sunt mai mari decât beneficiile aduse de aceste sisteme”.

Sursă: Financial Times 

Foto: Dragoscondrea | Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday