Scepticismul manifestat de autoritățile europene privind adoptarea unei legislații prin care să reglementeze instrumentele care folosesc inteligența artificială, precum noile chatboturi, s-ar putea să împiedice progresul tehnologic în blocul comunitar. ChatGPT, care face furori în Europa, a fost dezvoltat în SUA. OpenAI s-ar putea confrunta în curând cu o concurență acerbă din partea altor companii americane, cum ar fi Google și Twitter. Giganții tehnologici chinezi sunt și ei în cursă, Baidu creând deja un chatbot numit Ernie. Până acum nu pare să existe niciun chatbot european la orizont, scrie DW.

În timp ce diverse state membre ale UE deliberează dacă să interzică anumite chatboturi, legiuitorii susțin că blocul trebuie să aibă o reglementare clară a aplicațiilor de inteligență artificială, dar fără să sperie dezvoltatorii.

La sfârșitul lunii martie, autoritățile de reglementare din Italia au decis să blocheze botul ChatGPT, pe motiv că nu respectă legislația privind datele personale și că nu dispune de un sistem de verificare a vârstei utilizatorilor.

Garante, autoritatea italiană pentru protecția datelor, a transmis companiei OpenAI că va trebui să fie mai transparentă cu utilizatorii săi privind modul în care le-au fost procesate datele și să le ceară permisiunea dacă datele lor vor fi folosite pentru a dezvolta în continuare software-ul (în sensul de a-l ajuta “să învețe”). De asemenea, italienii au cerut și ca minorilor să le fie interzis accesul la chatbot. Într-un comunicat de presă, autoritatea italiană a precizat că interdicția va fi ridicată dacă OpenAI îndeplinește aceste condiții până pe 30 aprilie.

Spania și Franța au exprimat, de asemenea, preocupări similare cu privire la ChatGPT. Pentru moment, nu există o reglementare la nivelul UE cu privire la utilizarea IA în produse precum mașinile cu conducere autonomă, tehnologia medicală sau sistemele de supraveghere. Parlamentul European încă dezbate legislația propusă de Comisia Europeană în urmă cu doi ani. DW estimează că, în cel mai bun caz, va fi începutul anului 2025 până ca legislația să fie acceptată de statele membre și va putea să intre în vigoare.

Europarlamentarul german Axel Voss, unul dintre principalii redactori ai Legii UE privind inteligența artificială, a subliniat că IA nu era atât de avansată în urmă cu doi ani, iar legea va fi pur și simplu depășită înainte de a intrat efectiv în vigoare.

În plus, nu este clar dacă ChatGPT sau un produs similar ar fi acoperit de regulamentul UE, care definește niveluri de risc în IA care variază de la “inacceptabil” la “risc minim sau inexistent”. În conformitate cu legislația, doar programele cărora li se atribuie scoruri de “risc ridicat” sau “risc limitat” vor fi supuse unor reguli speciale privind documentarea algoritmilor, transparența și divulgarea utilizării datelor. Aplicațiile care documentează și evaluează comportamentul social al oamenilor pentru a prezice anumite acțiuni vor fi interzise, la fel și tehnologiile de recunoaștere facială.

Voss a spus că parlamentarii europeni sunt reticenți și se lasă ghidați de frică și de preocupări și încearcă să excludă toate riscurile. El a adăugat o parte dintre colegii săi doresc ca AI să fie monitorizată de un organism independent și că ar avea sens să se modifice astfel legislația existentă privind protecția datelor. “Dacă suntem prea rigizi aici, atunci companiile vor merge în altă parte și își vor dezvolta algoritmii și sistemele acolo. Apoi se vor întoarce și ne vor folosi doar ca putere consumatoare, ca să spunem așa”, a avertizat Voss.

Comisia Europeană și Parlamentul încearcă să găsească un echilibru între protecția consumatorilor, reglementare și libera dezvoltare a economiei și cercetării. Comisarul UE pentru piața internă, Thierry Breton, a declarat că inteligența artificială oferă “un potențial imens” pentru o societate și o economie digitalizate. În urmă cu doi ani, când a fost prezentată legislația AI a blocului, el a spus că UE nu a vrut să-i alunge pe dezvoltatori, ci să-i promoveze și să-i convingă să se stabilească în Europa. El a adăugat că UE nu ar trebui să fie dependentă de furnizorii străini și că datele pentru IA ar trebui stocate și procesate în UE.

Mark Brakel de la Institutul Future of Life din SUA a declarat pentru DW că și companiile trebuie să fie trase la răspundere de autoritățile de reglementare. El a spus că nu este suficient să se aplice niveluri de risc aplicațiilor AI, și a sugerat că dezvoltatorii înșiși ar trebui să monitorizeze riscurile fiecărei aplicații individuale. De asemenea, sfătuiește autoritățile să ia măsuri pentru a se asigura că “companiile sunt mandatate să facă acest management al riscului și să publice [rezultatele]”. A adăugat că uneori companiile nu pot prezice adesea cum vor progresa produsele lor AI și că de cele mai multe ori au fost surprinse de rezultate.

Analiza integrală la Deutsche Welle

Foto:  | Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday