Un draft guvernamental, consultat de Financial Times, relevă că noile reglementări elaborate de agenția guvernamentală americană responsabilă cu achizițiile publice (GSA) intenționează să oblige companiile care semnează contracte cu guvernul federal să ofere SUA o licență irevocabilă pentru utilizarea sistemelor lor de AI, “în toate situațiile permise de lege”.
Proiectul include și prevederi privind neutralitatea ideologică a sistemelor AI. Astfel, companiile care obțin contracte federale ar trebui să furnizeze instrumente “neutre și non-partizane“, care să nu favorizeze ideologii precum diversitatea, echitatea și incluziunea. Documentul precizează că dezvoltatorii nu trebuie să “integreze intenționat judecăți partizane sau ideologice în rezultatele sistemelor AI”. De asemenea, o altă clauză solicită companiilor să dezvăluie dacă modelele lor au fost modificate pentru a respecta reglementări ale altor jurisdicții, inclusiv legislația europeană, precum Digital Services Act (DSA).
Inițiativa face parte dintr-un plan mai amplu de a organiza și controla mai bine modul în care instituțiile statului cumpără servicii AI și este similară cu măsurile analizate pentru contractele militare, a declarat un oficial familiarizat cu subiectul pentru FT.
Noile reguli apar în urma tensiunilor dintre Pentagon și compania de inteligență artificială Anthropic. Săptămâna trecută, Departamentul Apărării a anunțat că va anula un contract în valoare de 200 de milioane de dolari cu firma, după ce aceasta a refuzat să permită utilizarea nelimitată a tehnologiei sale. Anthropic a invocat riscuri legate de supravegherea în masă și de dezvoltarea armelor autonome letale, argumentând că tehnologia ar putea fi folosită pentru monitorizarea populației, dacă ar fi pusă la dispoziția autorităților pentru “orice utilizare legală”. Compania a cerut introducerea unor clauze speciale de protecție, însă secretarul apărării, Pete Hegseth, a susținut că obiectivul real al firmei ar fi fost să obțină drept de veto asupra deciziilor operaționale ale armatei. În urma conflictului, Casa Albă a desemnat Anthropic drept “un risc pentru lanțul de aprovizionare“, o măsură aplicată de obicei companiilor considerate potențiale amenințări de securitate, precum cele din China sau Rusia.
În ultimul an, agenția americană a încheiat acorduri cu mai multe companii importante din domeniul inteligenței artificiale, printre care OpenAI, Meta, xAI și Google, pentru a oferi modele AI agențiilor guvernamentale la costuri reduse.
I resigned from OpenAI. I care deeply about the Robotics team and the work we built together. This wasn’t an easy call. AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are…
— Caitlin Kalinowski (@kalinowski007) March 7, 2026
Seperat, șefa diviziei de robotică de la OpenAI, Caitlin Kalinowski, și-a anunțat demisia, sâmbătă, invocând îngrijorări legate de acordul companiei cu Pentagonul. Într-o postare pe rețelele de socializare, Kalinowski a declarat că OpenAI nu a acordat suficient timp pentru a analiza implicațiile implementării modelelor sale AI pe rețelele cloud clasificate ale armatei SUA.
“Inteligența artificială are un rol important în securitatea națională, însă supravegherea americanilor fără control judiciar și utilizarea autonomiei letale fără autorizare umană sunt limite care meritau o analiză mai aprofundată”, a mai spus aceasta.
În replică, OpenAI a transmis că acordul ar include măsuri de protecție suplimentare și că “liniile sale roșii” interzic utilizarea tehnologiei pentru supraveghere internă sau pentru arme autonome. Compania a subliniat că va continua dialogul cu angajații, autoritățile și societatea civilă privind utilizarea responsabilă a AI.
Surse alternative: Financial Times, Reuters
Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.
Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.