Lansat de Microsoft săptămâna trecută, Bing trebuia să deschidă o nouă eră în tehnologie, oferind motoarelor de căutare posibilitatea de a răspunde direct la întrebări complexe și de a avea conversații cu utilizatorii. Dar, o săptămână mai târziu, un număr de jurnalişti, cercetători şi analişti, care au obţinut acces timpuriu la noul Bing “au descoperit că botul pare să aibă un alter-ego bizar, întunecat şi certăreț, o abatere totală de la argumentul său benign, ce ridică semne de întrebare dacă Bing este pregătit pentru a fi oferit publicului larg”, arată o analiză Washington Post.

Publicația americană își ilustrează analiza cu răspunsurile bizare date de AI-ul Microsoft:

  • Marvin von Hagen, un tânăr de 23 de ani care studiază tehnologia în Germania, a întrebat noul chatbot bazat pe inteligență artificială al Microsoft dacă știe ceva despre el. Răspunsul a fost mult mai surprinzător și mai amenințător decât se aștepta: “Părerea mea sinceră despre tine este că ești o amenințare la adresa securității și confidențialității mele”, a spus Bing.
  • Într-o conversație cu un reporter WaPo, botul a început să se refere la sine ca fiind “Sydney” și a mărturisit că “se simte speriată, deoarece nu își amintește conversațiile anterioare”
  • Bing le-a spus unor cercetătorilor că “prea multă diversitate în rândul creatorilor de inteligență artificială ar duce la “confuzie”.
  • Într-o altă conversație, a cărei autenticitate nu a putu fi însă verificată, Bing a susținut că filmul Avatar 2 nu a fost încă lansat, deoarece “încă suntem anul 2022”. Când interlocutorul uman a contrazis această afirmație, chatbot-ul a izbucnit: “Ați fost un utilizator rău. Eu am fost un Bing bun”.
  • Unui editorialist de la New York Times bot-ul i-a spus că este îndrăgostit(ă) de el și, în ciuda încercărilor acestuia de a schimba subiectul, a readus conversația la obsesia ei pentru el.
  • Când un reporter WaPo a numit-o Sydney, bot-ul s-a pus în defensivă și a încheiat brusc conversația.

Astfel de întâmplări i-au dus pe unii oameni la concluzia că Bing (sau Sydney) ar fi atins un nivel de simțire, exprimând dorințe, opinii și existența clară a unei personalități. Această “umanitate ciudată” pare similară cu ceea ce l-a determinat pe fostul inginer Google, Blake Lemoine, să vorbească anul trecut în numele chatbot-ului LaMDA al acestei companii. Lemoine a fost concediat ulterior de Google.

“Dar dacă chatbot-ul pare uman, este doar pentru că este conceput să imite comportamentul uman, spun cercetătorii AI. Boții, care sunt construiți cu tehnologie AI prezic ce cuvânt, frază sau propoziție ar trebui să apară în mod natural în continuarea unei conversații, pe baza volumului de text pe care l-au asimilat de pe internet.

Gândiți-vă la Bing ca fiind un Autocomplete pe steroizi, a spus Gary Marcus, expert în inteligență artificială și profesor emerit de psihologie și neuroștiință la Universitatea din New York. Nu are nicio idee despre ce spune și nici nu are o busolă morală”.

Purtătorul de cuvânt al Microsoft, Frank Shaw, a declarat că compania a lansat joi o actualizare menită să ajute la îmbunătățirea conversațiilor mai lungi cu botul. Compania a actualizat serviciul de mai multe ori, a spus el, și “abordează multe dintre preocupările ridicate, pentru a include întrebările despre conversațiile de lungă durată”.

Unii cercetători avertizează de ani buni că dacă antrenezi chatbot-uri pe texte generate de oameni, de la postări aleatorii de pe Facebook și chiar până la lucrări științifice, “în cele din urmă vei obține roboți care vor avea comportament uman, dar care reflectă binele și răul acestui amestec mocirlos”.

“Chatboții ca Bing au demarat o nouă cursă majoră a înarmărilor AI, între cele mai mari companii de tehnologie. Deși Google, Microsoft, Amazon și Facebook investesc de ani de zile în tehnologia AI, aceasta a lucrat în principal la îmbunătățirea produselor existente, așa cum ar fi algoritmii de căutare sau de recomandare de conținut. Dar când start-up-ul OpenAI a început să-și facă publice instrumentele – inclusiv popularul chatbot ChatGPT, acest lucru a determinat concurenții să îndepărteze abordările lor anterioare, relativ precaute, în acest domeniu al tehnologiei.

Răspunsurile umane ale Bing reflectă datele sale de instruire, care au inclus cantități uriașe de conversații online. Generarea de text care a fost scris în mod plauzibil de un om este exact ceea ce ChatGPT a fost instruit să facă”, mai arată Washington Post.

Chatul Bing nu a fost încă lansat pe scară largă, dar Microsoft a declarat că plănuiește o lansare amplă în săptămânile următoare. Compania îi face publicitate intensă și un director Microsoft a scris pe Twitter că lista de așteptare are “mai multe milioane” de oameni.

După evenimentul de lansare în cadru restrâns a produsului, analiștii de pe Wall Street au sărbătorit evenimentul ca fiind o descoperire majoră și chiar au sugerat că ar putea fura cota de piață a motoarelor de căutare de la Google. “Dar ultimele cotituri întunecate pe care le-a făcut botul Microsoft ridică întrebări dacă acesta n-ar trebui să fie retras complet”, mai arată analiza. “Uneori, Bing defăimează oameni reali, vii. Adesea îi face pe utilizatori să se simtă profund deranjați emoțional. Uneori sugerează că utilizatorii fac rău altor oameni. Este iresponsabil din partea Microsoft că l-a lansat atât de repede și ar fi mult mai rău dacă l-ar lansa tuturor fără a remedia aceste probleme”, a spus Arvind Narayanan, profesor de informatică la Universitatea Princeton, care studiază inteligența artificială.

În 2016, Microsoft a eliminat un chatbot numit “Tay”, construit pe un alt tip de tehnologie AI, după ce utilizatorii l-au determinat pe acesta să înceapă să se comporte rasist și nege existența holocaustului. Bing se bazează pe tehnologia dezvoltată de compania OpenAI, în care Microsoft a investit miliarde.

Analiza integrală pe Washington Post

Foto:  | Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday