Susținătorii și criticii inteligenței artificiale tind să se pună de acord că inteligența artificială va schimba lumea. Sam Altman, directorul OpenAI, vede un viitor în care omenirea va înflori, în timp ce expozanții celeilalte tabere prevăd perturbări la nivelul societății și concentrarea unei puteri excesive în mâinile companiilor din domeniu. În aceste condiții, boardul editorial al Financial Times atrage atenția că cele mai recente dispute din interiorul OpenAI, inclusiv plecarea co-fondatorului, sugerează că actorii-cheie din domeniu au devenit prea opaci pentru ca societatea să poată determina în ce fel tehnologia va influența viața. 

“Inteligența artificială nu ar trebui să fie ca o cutie neagră”, rezumă publicația britanică ideea textului. În cadrul unui index întocmit de Universitatea Stanford, Google, Amazon, Meta și OpenAI au primit calificativul insuficient. În ciuda faptului că AI a apărut în urma colaborării cercetătorilor și a experților din diferite companii, după ce OpenAI a lansat ChatGPT, care a crescut rapid imediat în popularitate, actorii din domeniu par că “au tăcut din gură”. Financial Times atarge atenția că aceste companii ar trebui să readopte o poziție mai deschisă, având în vedere toate potențialele pericole reprezentate, în acest moment, de AI.

Transparența, în domeniul inteligenței artificiale, ține de modelele largi de limbaj (LLM) și volumul de date pe care acestea au fost antrenate. La începutul cercetărilor, experții dezvăluiau, în reviste științifice, datele folosite, pentru a da posibilitatea altora să revină și să identifice eventuale deficiențe.

În prezent, actorii principali tind să nu mai dezvăluie detalii despre seturile de date supuse procesării, odată pentru a obține un avantaj în fața competitorilor și, totodată, pentru a se proteja de eventuale procese pentru încălcarea drepturilor de autor. Această schimbare de practică îngreunează evaluarea acurateței răspunsurilor oferite de chatboți. 

Pe lângă toate acestea, LLM-urile sunt ele însele lipsite de transparență. Mai concret, felul în care un model este antrenat pe blocuri de date și în care generează răspunsuri depinde de cum a fost proiectat, iar acest ultim aspect este, de cele mai multe ori “ținut la secret”. În anii trecuți, cercetătorii obișnuiau să publice documente despre proiectele lor, dar competiția pentru creșterea cotei de piață a pus capăt acestei practici. 

Toată această lipsă de transparență face ca publicul și autoritățile de reglementare să aibă dificultăți în evaluarea siguranței AI și în adoptarea de măsuri de protecție în fața potențialelor pericole. Acest lucru este cu atât mai îngrijorător cu cât Jan Leike, unul din cei mai importanți cercetători de la OpenAI, a declarat, după ce a părăsit compania, că șefii au prioritizat “produselor strălucitoare” în dauna siguranței. 

Anul trecut, în cadrul unei conferințe dedicate, la Bletchley Park, guvernele țărilor dezvoltate au încheiat un acord prin care au pus bazele reglementării inteligenței artificiale. Totuși, aceste măsuri se concentrează mai degrabă pe protecție și pe “teste de siguranță”, iar nu pe transparența totală. Majoritatea experților din domeniu lucrează pentru marile companii de tehnologie, iar modelele sunt dezvoltate prea repede pentru ca testele periodice de siguranță să fie suficiente, conchide Financial Times.

Textul integral la Financial Times

Foto: Rokas Tenys/Dreamstime.com, X/Jan Leike

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday