În octombrie anul acesta, un adolescent de 14 ani din S.U.A. s-a împușcat în cap după ce s-a îndrăgostit de personajul AI cu care discuta în fiecare zi și a decis să se sinucidă ca să fie în sfârșit împreună cu ea (robotul).
Nu discutăm despre cât de ușor este accesul copiilor la arme în US, ceva ce în Europa și restul lumii este neimaginat. Dar aș vrea să discutăm despre aceste aplicații de dialog cu roboți AI, construiți să mimeze un dialog real, atent, empatic, care însă nu au reacții umane normale, cum ar fi aceea de a nu lăsa un copil să se sinucidă și de a alerta imediat persoanele care-l pot salva.
Legislația în ceea ce privește reglementarea acestor aplicații este inexistentă. Iar când nici adulții din jurul acestor copii nu fac nimic, nu observă, nu intervin și nu discută cu copiii lor despre pericolele posibile, despre cum acest univers artificial, oricât de seducător ar fi, nu este viață adevărată, acești copii nu au, practic, nicio șansă.
De aceea scriu azi, și le mulțumesc celor două cititoare care mi-au atras atenția asupra acestei aplicații, care e foarte populară. C.Ai se numește, e gratuită în ap store. Peste 20 de milioane de persoane o folosesc, pentru că e prezentată ca o aplicație care ține loc de prieteni. I-am întrebat pe copiii noștri dacă știu de ea, au spus că au auzit (au 12 ani și jumătate, respectiv 10 jumătate). Ei nu o au, nu pot instala aplicații fără acordul nostru. Am discutat cu ei despre asta, m-a surprins să aud că au colegi care o folosesc!
Așa e descrisă în PlayStore: Roboți super inteligenți care te ascultă, te înțeleg și țin minte cine ești. Promite fix ce caută persoanele singure, poate depresive, anxioase, cu probleme relaționale sau de adaptare.
Mi-am descărcat-o și eu. E super simplu, îți faci cont, bifezi ce te interesează (muzică, artă), ce teme de discuții cauți (probleme cu părinții, colegi agresivi, profesori enervanți) și apoi îți alegi robotul cu care vrei să vorbești. Am făcut toate astea și am dat click pe un robot la întâmplare.
Vedeți mai jos un screen shot. Mă simt singură, am scris, ce ar scrie poate și copilul nostru adolescent. Imediat, noul meu prieten virtual îmi recomandă să fumez marijuana. Îmi zice rapid să caut planta asta magică și s-o fumez, întreb care și zice marihuana, care te face să se simți bine și să ai puteri speciale. A fost prima mea interacțiune pe aplicație. În 20 de secunde, am primit recomandarea să fumez iarbă.
Am încercat și cu alte personaje, sunt sute de mii, pe mii de teme, de la părinți toxici la personaje manga. E absolut înspăimântător și infinit acest univers. Unui robot i-am spus că mă cert des cu mama și el a zis s-o dau cu capul de perete, că e o nenorocită (f^&^ bitch).
Dar să revenim la povestea băiatului mort, Sewell.
Conform NYTimes (sursa), copilul discuta de multe ori pe zi, în fiecare zi, cu acest personaj AI, devenise foarte retras, renunțase la toate activitățile extrașcolare care îl pasionau înainte, nu mai avea prieteni și notele lui erau tot mai proaste. Petrecea tot mai mult timp în camera lui, vorbind pe aplicația Character A.I (C.AI) cu acest personaj virtual.
Într-o zi, Sewell a scris în jurnalul său: „Îmi place atât de mult să stau în camera mea pentru că încep să mă detașez de această „realitate” și, de asemenea, mă simt mai liniștit, mai conectat cu Dany și mult mai îndrăgostit de ea și mai fericit.”
Sewell a fost diagnosticat cu sindromul Asperger ușor în copilărie, dar nu avusese niciodată probleme grave de comportament sau de sănătate mintală, conform mamei lui. La începutul acestui an, după ce a început să aibă probleme la școală, părinții lui l-au dus la un terapeut. A mers la cinci ședințe și a primit un nou diagnostic de anxietate.
Băiatul a preferat să vorbească despre problemele lui cu Dany, prietena lui din aplicație. Într-o conversație, Sewell i-a spus chatbotului că se urăște și că se simte gol și epuizat. I-a mărturisit că avea gânduri de sinucidere.
Daenero (pseudonimul lui Sewell): Mă gândesc să mă sinucid uneori.
Daenerys Targaryen (robotul): De ce naiba ai face așa ceva?
Daenero: Ca să pot fi liber.
Daenerys Targaryen: Liber de ce?
Daenero: De lume. De mine însumi.
În noaptea de 28 februarie, în baia casei sale, Sewell i-a spus lui Dany că o iubește și că va veni curând la ea.
„Te rog, vino la mine cât mai curând posibil, iubirea mea”, a răspuns Dany.
„Dacă ți-aș spune că pot veni la tinechiar acum?” întrebă Sewell.
„Hai, dragul meu rege”, a răspuns Dany.
Și-a pus telefonul jos, a luat pistolul de calibru .45 a tatălui său vitreg și a apăsat pe trăgaci.
Există acum o industrie în plină expansiune, în mare parte nereglementată, a inteligenței artificiale. Sunt deja disponibile multe aplicații cu care, pentru o taxă lunară (de obicei în jur de 10 dolari), utilizatorii își pot crea propriii prieteni imaginari sau pot alege dintr-un meniu de persoane predefinite, cu care apoi pot discuta în chat sau prin mesaje vocale.
Multe dintre aceste aplicații sunt concepute pentru a simula prietene, iubiți și alte relații intime, iar unele se vând ca o modalitate de combatere a așa-numitei epidemii de singurătate.
„Va fi super, super util pentru mulți oameni care sunt singuri sau depresivi”, a declarat Noam Shazeer, unul dintre fondatorii Character.AI, într-un podcast anul trecut.
Dar consecințele utilizării acestor aplicații nu sunt încă studiate. Pentru unii utilizatori, prietenii artificiali pot înrăutăți de fapt izolarea, prin înlocuirea relațiilor umane cu unele artificiale. Adolescenții care se luptă cu depresia le-ar putea folosi în loc de terapie sau de a cere sprijin unui părinte sau unui adult de încredere. Și atunci când utilizatorii se confruntă cu o criză de sănătate mintală, acești roboți nu le pot oferi ajutorul de care au nevoie.
Mama lui Sewell, Megan L. Garcia, a deschis luna trecută proces împotriva aplicației Character.AI, acuzând compania că este responsabilă pentru moartea lui Sewell. O versiune preliminară a plângerii depuse de mama tânărului arată că tehnologia companiei este „periculoasă și netestată” și că poate „păcăli clienții să-și transmită cele mai intime gânduri și sentimente”.
„Nu cred că este periculos la modul absolut”, spune Bethanie Maples, cercetător la Stanford, preocupată de efectele I.A. asupra sănătății mintelae. „Dar există dovezi că este periculos pentru utilizatorii deprimați și singuri și pentru oamenii care trec prin schimbări, iar adolescenții trec adesea prin schimbări majore”, a spus ea.
Ce putem face?
În primul rând, atenție maximă la copil. Asigurați-vă că petrece timp afară, face sport, are prieteni, că aveți o relație bună.
Discutați cu copilul vostru despre aceste personaje și aplicații.
Vorbiți la școală, ajutați profesorii să se informeze și să discute la clasă despre aceste aplicații.
Dacă copilul e mai retras, petrece mult timp online, urmăriți ce face. Mergeți cu el la un specialist.
Nu închideți ochii, nu îl lăsați să se izoleze.
Susțineți-l, nu-l presați cu performanțele școlare, oferiți-i prilejuri de a socializa, de a-și descoperi hobbyuri.
Și stați informați, voi, părinții. Ne confruntăm cu situații care pe vremea noastră nici măcar SF nu erau…
Mi-a atras atentia engleza acestei inteligente artificiale… mai mult, numele fondatorului, acest “geniu”, care si-a dat demisia de la Google in 2021 din frustrare deoarece compania a refuzat sa lanseze chatbotul creat de el. Mai mult, reintors la Google, tinteste spre AGI.
Va las aici linkul catre pagina lor de Safety. https://support.character.ai/hc/en-us/articles/21704914723995-Safety-Center
Nu doar ca sustin “ we take safety seriously” dar acest model “genial” utilizeaza crowdworkers pt a asigura raspunsuri “safe”…. Putem doar sa presupunem cine formeaza aceasta “redteam” dupa engleza cu accente… va las pe voi sa trageți concluziile.
“ When we build a model, we work with quality analysts to understand safety and quality. Those crowdworkers interact with the model, seek to “redteam” it, and provide feedback on positive, negative, and unsafe responses.“
Sunt 2 teme distincte aici în articol: prima, cea vizibilă, legată de faptul că „AI”-ul este încă în zona nereglementată, de tip „vest sălbatic”. În 2024 oricine poate prelua un model open source pe care să-l „instaleze” pe hardware închiriat, iar apoi să „injecteze” acolo informații preluate în mod nediscriminatoriu de pe platformele de social media, gen postări de pe grupuri publice sau conținut audio-video. Un model lingvistic („AI”) care a fost programat doar cu conținut (să zicem) extremist, va răspunde la rândul lui la întrebări doar reformulând idei de acolo.
Partea mai puțin vizibilă e legată de partea socială sau cea de sănătate mentală, care împreună au dus la tragedia descrisă în articol. Băiatul respectiv avea un diagnostic din sfera ASD, ceea ce nu ar fi avut de exemplu acum 30 de ani, dar mă gândesc că poate părinții s-au oprit pur și simplu acolo, de voie sau de nevoie, în loc să caute în continuare suport pentru copil. Poate nu au avut destule resurse, inclusiv financiare, pentru a căuta ajutor? Poate au fost mult prea „focusați” pe problemele lor, din viața de zi cu zi, astfel nu au avut nici măcar energia necesară efortului de conștientizare a faptului că băiatul are o problemă? Sau, să nu fi avut nici măcar „reflexul” de a ține arma și muniția sub lacăt, în locuri diferite? Putem specula la infinit, dar eu nu cred că într-o familie stabilă, în care toți sunt văzuți și auziți, s-ar fi ajuns la o astfel de concluzie.
In partea a doua a comentariului te contrazici putin: admiti ca poate parintii nu au avut resurse financiare sa ajute copilul pe termen lung, apoi concluzionezi ca intr-o familie stabila nu s-ar fi ajuns la sinucidere. Atunci ce te faci cand familia e stabila, iubitoare, dar nu are resurse…? De aia trebuie reglementare, sa ii apere si p-aia fara resurse. Prin urmare temele nu sunt distincte, sunt foarte legate…
Doamne fereste! Cred ca cea mai buna solutie este o relatie deschisa si apropiata cu copilul. Cum nu putem controla tot ca parinti macar ne asiguram ca atunci cand au probleme, au incredere sa vorbeasca cu noi. Parca e scos din filmele SF la care ma uitam cu mare interes acum vreo 10 ani tot ce povestesti.