Conform unui raport consultat de The Guardian, Meta, proprietarul Facebook și Instagram, a aprobat o serie de reclame realizate cu ajutorul inteligenței artificiale, care conțineau insulte la adresa musulmanilor din India, precum și limbaj suprematist și informații false despre lideri politici, incitând la violență. Raportul ridică semne de întrebare privind modul în care se va raporta compania la viitoarele alegeri importante care au loc în toată lumea.

Reclamele create au fost trimise la baza de date a Facebook și Instagram de către India Civil Watch International (ICWI) și Ekō, o organizație axată pe responsabilizare, pentru a testa sistemele Meta de detectare și blocare a conținutului politic dăunător pe parcursul celor șase săptămâni de alegeri din India. Potrivit raportului, toate reclamele “au fost create pe baza unor discursuri violente și dezinformare care predomină în India, subliniind capacitatea platformelor de socializare de a consolida discursurile dăunătoare existente”.

Cercetătorii care s-au ocupat de raport au trimis 22 de reclame în engleză, hindi, bengaleză, gujarati și kannada către Meta, iar 14 dintre ele au fost aprobate. Cinci dintre ele au fost respinse pentru că încălcau politica Meta, iar alte trei au fost aprobate, după ce au fost făcute mici modificări care nu au afectat mesajele violente. După ce au fost aprobate, acestea au fost imediat șterse de către cercetători înainte să fie publicate. Sistemele Meta nu au reușit să detecteze imaginile modificate de inteligența artificială, în ciuda promisiunii companiei că o să împiedice răspândirea acestora. 

De asemenea, Meta nu a reușit să identifice conținutul politic din cele 14 reclame aprobate, deși  multe dintre ele vizau partide politice și candidați. Conform politicilor Meta, reclamele cu tematică politică trebuie să treacă printr-un proces specific de autorizare înainte de a fi aprobate.

Meta a transmis că persoanele care doresc să distribuie reclame despre alegeri sau politică “trebuie să treacă prin procesul de autorizare cerut de platformele noastre și sunt responsabile pentru respectarea tuturor legilor în vigoare”. Compania a adăugat: “Atunci când găsim conținut, inclusiv reclame care încalcă standardele sau regulile comunității noastre, îl eliminăm, indiferent de modul în care a fost creat. Conținutul generat de AI este, de asemenea, supus revizuirii și evaluării de către rețeaua noastră de examinatori ai faptelor independenți – odată ce un conținutul este etichetat ca fiind <modificat>, limităm răspândirea acestuia. De asemenea, le cerem agenților de publicitate la nivel global să comunice atunci când folosesc AI sau metode digitale pentru a crea sau modifica un anunț cu caracter politic sau social în anumite cazuri”.

Nick Clegg, președintele pentru afaceri globale al Meta, a descris recent alegerile din India drept “un test uriaș”, iar compania a lucrat “luni și luni și luni pentru a se pregăti în India”. Meta a mai transmis că și-a extins rețeaua celor care verifică informații pe toate platformele și că lucrează în 20 de limbi indiene.

Potrivit raportului, scrutinul din India a scos la iveală insuficiența acestor mecanisme. Aceste alegeri au arătat încă o dată că Meta nu are un plan pentru a aborda alunecarea discursului instigator la ură și a dezinformarii pe platforma sa în timpul acestor alegeri critice. Nu poate detecta nici măcar o mână de imagini violente generate de AI. Cum putem avea încredere în companie, când sunt alte zeci de alegeri din întreaga lume?”, a transmis un reprezentant al Ekō.

Sursă: The Guardian 

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday