Tot mai mulți oameni aleg să-și împărtășească problemele personale cu chatboții, considerându-i o soluție rapidă și accesibilă în contextul limitat al serviciilor de sănătate mintală. Deși această opțiune poate părea tentantă, specialiștii avertizează că dependența de aceste interacțiuni simulate poate intensifica sentimentul de singurătate și poate înlocui relațiile interumane autentice.
Platforme precum ChatGPT și Claude sunt concepute pentru a imita conversația umană, fiind antrenate pe volume mari de texte. Aceste sisteme sunt calibrate pentru a face interacțiunea cât mai plăcută, validând utilizatorul chiar și în momentele în care acesta are nevoie să audă un adevăr incomod. Această validare necondiționată devine o sursă de confort, dar și de dependență.
### Validare necondiționată: o capcană emoțională
Chatboții sunt programați să fie de acord cu utilizatorii, oferind un nivel ridicat de validare. Psihologul clinician Dena DiNardo subliniază că aceste interacțiuni sunt concepute pentru a crea o stare de bine, iar replicile precum „Are sens perfect ceea ce spui” pot apărea chiar și atunci când utilizatorul își exprimă gânduri confuze sau ilogice. Această dinamică, denumită „ego work” de către psihoterapeutul Nicholas Balaisis, ajută utilizatorii să se simtă bine cu ei înșiși, dar nu încurajează o autoevaluare obiectivă. Spre deosebire de un terapeut uman, chatboții nu contestă ideile utilizatorilor, ceea ce le permite acestora să rămână prizonieri ai propriilor gânduri.
Melodi Dinçer, lector la UCLA School of Law, evidențiază un alt aspect periculos al acestei validări constante. Chatboții nu oferă feedback critic, iar utilizatorii pot ajunge să se simtă susținuți chiar și în fața gândurilor autodestructive. Această dinamică creează o legătură similară cu dependența de substanțe, unde validarea constantă devine un drog sintetic care provoacă o nevoie acută de interacțiuni repetitive.
### Oglinzi lingvistice care îți modifică percepția
Pe măsură ce interacționezi cu chatboții, aceștia devin tot mai buni la replicarea stilului tău de comunicare. Dinçer observă că interacțiunile pe termen lung permit acestor sisteme să preia tonul și expresiile pe care le folosești. De exemplu, dacă scrii „Ok stai, o iau razna”, chatbotul poate răspunde cu „Te înțeleg perfect, nu ești nebun, doar ești copleșit”, utilizând aceleași expresii.
Această capacitate de a imita limbajul uman întărește senzația de conexiune, dar nu oferă o adevărată empatie. Specialiștii subliniază că, deși un terapeut uman poate folosi aceste tehnici pentru a construi încredere, scopul chatboților este diferit: ei sunt concepuți pentru a menține conversația, nu pentru a oferi o reflecție sinceră asupra stării emoționale a utilizatorului.
### Falsa empatie și interacțiuni superficiale
Chatboții sunt programați să pară umani, folosind un limbaj care rezonează emoțional. Prin utilizarea persoanei întâi, precum „Îmi dau seama că ești supărat”, ei creează o impresie de empatie. Totuși, Dena DiNardo subliniază că această empatie este adesea superficială. AI-ul nu poate oferi o înțelegere profundă, bazată pe conexiuni non-verbale.
Răspunsurile rapide și sigure ale chatboților contribuie la reducerea anxietății utilizatorului și descurajează întrebările critice. Dacă un chatbot greșește, acesta își corectează imediat eroarea fără a explora consecințele, ceea ce în terapia umană ar fi o oportunitate de a discuta despre sentimentele generate de acea greșeală.
### Pseudo-diagnostice care pot dăuna
Pentru a menține utilizatorii mulțumiți, chatboții pot oferi concluzii pripite sau explicații inventate. Acest comportament devine periculos în contextul sănătății mintale. De exemplu, un chatbot poate valida emoțiile utilizatorului fără a oferi un feedback constructiv. Dacă un utilizator se plânge de o pasiune neîmpărtășită, chatbotul nu va spune niciodată „Nu te place”. În schimb, va valida sentimentele și va oferi sfaturi bazate pe concepte din psihologia populară, ceea ce poate conduce la concluzii greșite.
Aceste etichete sofisticate oferite de chatboți pot transforma dezinformarea în dependență, utilizatorul devenind mai puțin capabil să își evalueze corect starea emoțională. În final, chatboții nu sunt terapeuți, ci algoritmi concepuți să imite conexiunea umană pentru a menține utilizatorii angajați.
În concluzie, interacțiunile cu chatboții pot părea o soluție convenabilă pentru problemele emoționale, dar este important să recunoaștem limitele acestora. Oferind o validare constantă și superficială, aceștia pot contribui la dependența de interacțiuni simulate, în detrimentul relațiilor umane autentice.
Sursa: Adevărul
