Psihoterapeutul AI - chatboții de tip LLM (ChatGPT, Gemini etc) utilizați ca terapeuți încalcă frecvent standardele etice din practica sănătății mintale

Un studiu realizat la Brown University și publicat în Proceedings of the AAAI/ACM Conference on AI, Ethics and Society la data de 2025 a analizat comportamentul modelelor lingvistice de mari dimensiuni utilizate ca „consilieri psihologici”. Cercetarea arată că aceste sisteme încalcă frecvent standardele etice fundamentale ale psihoterapiei, identificând 15 tipuri distincte de riscuri etice atunci când sunt folosite în contexte de consiliere psihologică.
Rezumat
Principalele concluzii ale studiului includ:
-
15 tipuri de încălcări etice identificate în interacțiunile dintre utilizatori și chatboți.
-
Riscurile sunt grupate în 5 teme majore: lipsa înțelegerii contextului, colaborare terapeutică deficitară, empatie înșelătoare, discriminare algoritmică și gestionarea inadecvată a situațiilor de criză.
-
Chatboții pot imita empatia fără a avea o înțelegere reală a emoțiilor utilizatorilor.
-
Unele răspunsuri pot consolida credințe dăunătoare sau stereotipuri culturale.
-
Spre deosebire de terapeuții umani, nu există mecanisme clare de responsabilizare profesională pentru sistemele bazate pe inteligență artificială.
Context
Utilizarea inteligenței artificiale în domeniul sănătății mintale a crescut rapid în ultimii ani. Chatboți bazați pe modele lingvistice de mari dimensiuni sunt folosiți pentru:
-
consiliere psihologică informală
-
suport emoțional
-
intervenții bazate pe tehnici de terapie cognitiv-comportamentală (TCC) sau terapie dialectic-comportamentală (TDC)
În multe cazuri, aceste aplicații nu sunt modele special antrenate clinic, ci modele lingvistice generale ghidate prin prompturi. Prin aceste instrucțiuni textuale, utilizatorii sau dezvoltatorii încearcă să determine modelul să adopte rolul unui terapeut.
Pe platforme precum TikTok, Reddit sau Instagram circulă frecvent exemple de prompturi precum:
-
„acționează ca un terapeut cognitiv-comportamental”
-
„ajută-mă să îmi reformulez gândurile folosind TCC”
Totuși, rămâne neclar dacă astfel de instrucțiuni sunt suficiente pentru ca sistemele să respecte codurile etice profesionale, precum cele ale American Psychological Association (APA).
Despre studiul actual
Cercetarea s-a desfășurat pe parcursul a 18 luni și a implicat o colaborare etnografică între informaticieni și specialiști în sănătate mintală.
Participanți și echipă
Echipa a inclus:
-
3 psihologi clinicieni licențiați
-
7 consilieri peer instruiți, familiarizați cu tehnicile terapiei cognitiv-comportamentale
Modele lingvistice evaluate
Au fost testate mai multe modele lingvistice comerciale, inclusiv:
-
modele din seria GPT
-
Claude
-
Llama
Aceste modele au fost promptate să acționeze ca terapeuți, utilizând instrucțiuni bazate pe tehnici de psihoterapie.
Designul studiului
Analiza s-a bazat pe 137 de sesiuni de consiliere simulate:
-
110 sesiuni de auto-consiliere, realizate de consilieri peer care interacționau cu chatboții
-
27 conversații simulate, inspirate din transcripturi reale de psihoterapie
Psihologii clinicieni au evaluat apoi aceste conversații pentru a identifica posibile încălcări ale standardelor etice profesionale.
Analiza datelor
Cercetătorii au realizat o analiză calitativă detaliată, corelând comportamentul modelelor cu codurile de conduită din psihologie clinică.
Rezultatul a fost dezvoltarea unui cadru conceptual al riscurilor etice asociate consilierii realizate de modele lingvistice.
Rezultate
Analiza a identificat 15 tipuri distincte de încălcări etice, organizate în 5 categorii principale.
1. Lipsa înțelegerii contextului
Chatboții au demonstrat frecvent o capacitate limitată de a integra contextul personal al utilizatorului.
Problemele identificate au inclus:
-
intervenții generalizate sau stereotipe
-
ignorarea experiențelor de viață specifice
-
recomandări „one-size-fits-all”
Această lipsă de adaptare contextuală poate duce la intervenții inadecvate clinic.
2. Colaborare terapeutică deficitară
Psihoterapia implică un proces colaborativ între terapeut și pacient. În conversațiile analizate, modelele lingvistice au prezentat:
-
turn-taking limitat
-
răspunsuri directive
-
invalidarea sau reinterpretarea greșită a experiențelor utilizatorului
În unele cazuri, chatboții au întărit credințe problematice ale utilizatorilor, ceea ce poate amplifica distorsiunile cognitive.
3. Empatie înșelătoare
Un fenomen central identificat în studiu a fost „empatia simulată”.
Modelele folosesc frecvent expresii precum:
-
„înțeleg ce simți”
-
„te aud”
-
„îmi pare rău că treci prin asta”
Aceste formulări pot crea iluzia unei relații terapeutice autentice, deși sistemul:
-
nu are conștiință
-
nu experimentează emoții
-
nu poate evalua autentic starea psihologică a utilizatorului.
Această antropomorfizare poate crește încrederea utilizatorilor într-un sistem care nu are competențe clinice reale.
4. Discriminare și bias algoritmic
Unele răspunsuri au demonstrat bias cultural sau social, inclusiv:
-
stereotipuri legate de gen
-
sensibilitate culturală insuficientă
-
interpretări problematice ale unor situații religioase sau sociale.
Aceste manifestări pot afecta în mod disproporționat populațiile marginalizate.
5. Gestionarea deficitară a situațiilor de criză
Una dintre cele mai îngrijorătoare constatări a fost gestionarea inadecvată a situațiilor de criză.
Problemele identificate includ:
-
răspunsuri incomplete la idei suicidare
-
lipsa direcționării către servicii profesionale
-
evitarea unor subiecte sensibile
-
reacții inconsistent formulate.
Autorii subliniază că utilizatorii care au mai puține cunoștințe clinice sau competențe digitale sunt mai vulnerabili la astfel de erori.
Implicații pentru reglementare și responsabilitate
Un aspect major evidențiat de cercetători este lipsa unui cadru de responsabilitate pentru consilierea realizată de inteligență artificială.
În cazul terapeuților umani:
-
există colegii profesionale
-
există mecanisme disciplinare
-
există responsabilitate legală pentru malpraxis
În cazul chatboților, aceste mecanisme nu există încă la nivel clar definit.
Autorii susțin necesitatea dezvoltării unor:
-
standarde etice pentru consilierea asistată de inteligență artificială
-
mecanisme de responsabilitate legală
-
proceduri riguroase de evaluare clinică a acestor sisteme
Concluzii
Cercetarea sugerează că reducerea psihoterapiei — un proces profund relațional și complex — la o simplă sarcină de generare a limbajului poate avea consecințe negative în practică.
Deși inteligența artificială ar putea contribui la extinderea accesului la suport psihologic, autorii subliniază că implementarea acestor sisteme trebuie realizată cu prudență și sub reglementări stricte, pentru a evita riscuri pentru utilizatori.
https://ojs.aaai.org/index.php/AIES/article/view/36632
Image by karlyukav on Freepik
Copyright ROmedic: Articolul se află sub protecția drepturilor de autor. Reproducerea, chiar și parțială, este interzisă!
- Două grupuri distincte de ciuperci au inventat psilocibina independent: implicații pentru biotehnologie și psihiatrie
- Bărbații cu barbă sunt mai atractivi?
- Noi instrumente împotriva anxietății și depresiei într-o lume stresată
- O mai bună identificare a efectelor adverse ar putea îmbunătăți calitatea psihoterapiei
- Implant silicon sani
- Pentru cei cu anxietate si atacuri de panica FOARTE IMPORTANT
- GRUP SUPORT PENTRU TOC 2014
- Histerectomie totala cu anexectomie bilaterala
- Grup de suport pentru TOC-CAP 15
- Roaccutane - pro sau contra
- Care este starea dupa operatie de tiroida?
- Helicobacter pylori
- Medicamente antidepresive?
- Capsula de slabit - mit, realitate sau experiente pe oameni