Studiul, realizat pe 11 mii de tineri cu vârste cuprinse între 13 și 17 ani, din Anglia și Țara Galilor, afectați de diferite tipuri de violență (de la bullying, la implicare în activități ale bandelor) arată că 40% dintre ei au căutat sprijin psihologic la un chatbot de inteligență artificială. Extrapolat la populația adolescentă, asta înseamnă că unul din patru tineri apelează la această soluție.

The Guardian prezintă mai multe cazuri, anonimizate. Spre exemplu Shan (numele este fictiv), o adolescentă din Tottenham,  a cerut ajutorul ChatGPT, după ce doi prieteni au murit, unul împușcat, celălalt înjunghiat, într-un incident pe stradă. Spune că chatbotul o făcea să se simtă “mai în siguranță, mai puțin intimidată și, esențial, el era disponibil la orice oră”. Ea spune că presupusa confidențialitate a botului este un avantaj considerabil față de o discuție cu un terapeut școlar, sau chiar față de mama sa, care se simt datori să facă ceva după ce află problemele sale.

Un alt tânăr, care a folosit AI pentru suport psihologic, a declarat pentru The Guardian: “Sistemul actual (de asistență) este foarte deficitar în ceea ce privește oferirea de ajutor tinerilor. Chatboții oferă răspunsuri pe loc. Dacă ești unul sau doi ani pe lista de așteptare a unui psiholog, ai această opțiune, de a primi un răspuns la problemele tale imediat… de aici vine dorința de a utiliza inteligența artificială”.

Jon Yates, directorul executiv al Fondului de Suport pentru Tineret, ONG-ul care a comandat studiul, spune că “prea mulți tineri se luptă cu probleme de acest fel și nu pot obține sprijinul de care au nevoie. Nu este surprinzător faptul că unii apelează la tehnologie. Trebuie să facem mai mult pentru copiii noștri, în special pentru cei mai expuși riscurilor. Au nevoie de un om, nu de un robot”.

OpenAI, compania americană din spatele ChatGPT, se confruntă cu mai multe procese, inclusiv din partea familiilor tinerilor care s-au sinucis după lungi intercațiuni cu chatbotul. În cazul unui adolescent de 16 ani din California, care s-a sinucis în aprilie, OpenAI a negat că bot-ul l-ar fi ajutat în vreun fel, dar susține că și-a îmbunătățit tehnologia “pentru a recunoaște și a răspunde la semnele de suferință mentală sau emoțională, pentru a dezescalada conversațiile și pentru a ghida oamenii către sprijin din lumea reală”. În septembrie, compania a anunțat că va începe să contacteze autoritățile în cazurile în care utilizatorii încep să vorbească serios despre sinucidere.

Hanna Jones, o cercetătoare britanică în domeniul violenței juvenile, spune însă că este nevoie de o reglementare serioasă în acest domeniu – “ChatGPT nu este conceput pentru suport în privința problemelor de sănătate mintală. Ceea ce avem nevoie acum este să îmbunătățim reglementările, pe baza de dovezi, dar folosind și experiența tinerilor. Această problemă nu va fi rezolvată de adulți care iau decizii în numele tinerilor. Ei trebuie să conducă cumva acest proces de reglementare, pentru că sprijinul pentru sănătatea mintală care utilizează inteligența artificială este foarte diferit de cel din lumea reală. Noi nu am crescut cu asta și nici nu ne putem imagina ce înseamnă să fii tânăr în ziua de astăzi”.

Sursa: The Guardian

Foto: 84108721 | Child © Flynt | Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday