Psihoterapeutul AI - chatboții de tip LLM (ChatGPT, Gemini etc) utilizați ca terapeuți încalcă frecvent standardele etice din practica sănătății mintale

©

Autor:

Psihoterapeutul AI - chatboții de tip LLM (ChatGPT, Gemini etc) utilizați ca terapeuți încalcă frecvent standardele etice din practica sănătății mintale

Un studiu realizat la Brown University și publicat în Proceedings of the AAAI/ACM Conference on AI, Ethics and Society la data de 2025 a analizat comportamentul modelelor lingvistice de mari dimensiuni utilizate ca „consilieri psihologici”. Cercetarea arată că aceste sisteme încalcă frecvent standardele etice fundamentale ale psihoterapiei, identificând 15 tipuri distincte de riscuri etice atunci când sunt folosite în contexte de consiliere psihologică.

Rezumat

Principalele concluzii ale studiului includ:

  • 15 tipuri de încălcări etice identificate în interacțiunile dintre utilizatori și chatboți.

  • Riscurile sunt grupate în 5 teme majore: lipsa înțelegerii contextului, colaborare terapeutică deficitară, empatie înșelătoare, discriminare algoritmică și gestionarea inadecvată a situațiilor de criză.

  • Chatboții pot imita empatia fără a avea o înțelegere reală a emoțiilor utilizatorilor.

  • Unele răspunsuri pot consolida credințe dăunătoare sau stereotipuri culturale.

  • Spre deosebire de terapeuții umani, nu există mecanisme clare de responsabilizare profesională pentru sistemele bazate pe inteligență artificială.

Context

Utilizarea inteligenței artificiale în domeniul sănătății mintale a crescut rapid în ultimii ani. Chatboți bazați pe modele lingvistice de mari dimensiuni sunt folosiți pentru:

  • consiliere psihologică informală

  • suport emoțional

  • intervenții bazate pe tehnici de terapie cognitiv-comportamentală (TCC) sau terapie dialectic-comportamentală (TDC)

În multe cazuri, aceste aplicații nu sunt modele special antrenate clinic, ci modele lingvistice generale ghidate prin prompturi. Prin aceste instrucțiuni textuale, utilizatorii sau dezvoltatorii încearcă să determine modelul să adopte rolul unui terapeut.

Pe platforme precum TikTok, Reddit sau Instagram circulă frecvent exemple de prompturi precum:

  • „acționează ca un terapeut cognitiv-comportamental”

  • „ajută-mă să îmi reformulez gândurile folosind TCC”

Totuși, rămâne neclar dacă astfel de instrucțiuni sunt suficiente pentru ca sistemele să respecte codurile etice profesionale, precum cele ale American Psychological Association (APA).

Despre studiul actual

Cercetarea s-a desfășurat pe parcursul a 18 luni și a implicat o colaborare etnografică între informaticieni și specialiști în sănătate mintală.

Participanți și echipă

Echipa a inclus:

  • 3 psihologi clinicieni licențiați

  • 7 consilieri peer instruiți, familiarizați cu tehnicile terapiei cognitiv-comportamentale

Modele lingvistice evaluate

Au fost testate mai multe modele lingvistice comerciale, inclusiv:

  • modele din seria GPT

  • Claude

  • Llama

Aceste modele au fost promptate să acționeze ca terapeuți, utilizând instrucțiuni bazate pe tehnici de psihoterapie.

Designul studiului

Analiza s-a bazat pe 137 de sesiuni de consiliere simulate:

  • 110 sesiuni de auto-consiliere, realizate de consilieri peer care interacționau cu chatboții

  • 27 conversații simulate, inspirate din transcripturi reale de psihoterapie

Psihologii clinicieni au evaluat apoi aceste conversații pentru a identifica posibile încălcări ale standardelor etice profesionale.

Analiza datelor

Cercetătorii au realizat o analiză calitativă detaliată, corelând comportamentul modelelor cu codurile de conduită din psihologie clinică.

Rezultatul a fost dezvoltarea unui cadru conceptual al riscurilor etice asociate consilierii realizate de modele lingvistice.

Rezultate

Analiza a identificat 15 tipuri distincte de încălcări etice, organizate în 5 categorii principale.

1. Lipsa înțelegerii contextului

Chatboții au demonstrat frecvent o capacitate limitată de a integra contextul personal al utilizatorului.

Problemele identificate au inclus:

  • intervenții generalizate sau stereotipe

  • ignorarea experiențelor de viață specifice

  • recomandări „one-size-fits-all”

Această lipsă de adaptare contextuală poate duce la intervenții inadecvate clinic.

2. Colaborare terapeutică deficitară

Psihoterapia implică un proces colaborativ între terapeut și pacient. În conversațiile analizate, modelele lingvistice au prezentat:

  • turn-taking limitat

  • răspunsuri directive

  • invalidarea sau reinterpretarea greșită a experiențelor utilizatorului

În unele cazuri, chatboții au întărit credințe problematice ale utilizatorilor, ceea ce poate amplifica distorsiunile cognitive.

3. Empatie înșelătoare

Un fenomen central identificat în studiu a fost „empatia simulată”.

Modelele folosesc frecvent expresii precum:

  • „înțeleg ce simți”

  • „te aud”

  • „îmi pare rău că treci prin asta”

Aceste formulări pot crea iluzia unei relații terapeutice autentice, deși sistemul:

  • nu are conștiință

  • nu experimentează emoții

  • nu poate evalua autentic starea psihologică a utilizatorului.

Această antropomorfizare poate crește încrederea utilizatorilor într-un sistem care nu are competențe clinice reale.

4. Discriminare și bias algoritmic

Unele răspunsuri au demonstrat bias cultural sau social, inclusiv:

  • stereotipuri legate de gen

  • sensibilitate culturală insuficientă

  • interpretări problematice ale unor situații religioase sau sociale.

Aceste manifestări pot afecta în mod disproporționat populațiile marginalizate.

5. Gestionarea deficitară a situațiilor de criză

Una dintre cele mai îngrijorătoare constatări a fost gestionarea inadecvată a situațiilor de criză.

Problemele identificate includ:

  • răspunsuri incomplete la idei suicidare

  • lipsa direcționării către servicii profesionale

  • evitarea unor subiecte sensibile

  • reacții inconsistent formulate.

Autorii subliniază că utilizatorii care au mai puține cunoștințe clinice sau competențe digitale sunt mai vulnerabili la astfel de erori.

Implicații pentru reglementare și responsabilitate

Un aspect major evidențiat de cercetători este lipsa unui cadru de responsabilitate pentru consilierea realizată de inteligență artificială.

În cazul terapeuților umani:

  • există colegii profesionale

  • există mecanisme disciplinare

  • există responsabilitate legală pentru malpraxis

În cazul chatboților, aceste mecanisme nu există încă la nivel clar definit.

Autorii susțin necesitatea dezvoltării unor:

  • standarde etice pentru consilierea asistată de inteligență artificială

  • mecanisme de responsabilitate legală

  • proceduri riguroase de evaluare clinică a acestor sisteme

Concluzii

Cercetarea sugerează că reducerea psihoterapiei — un proces profund relațional și complex — la o simplă sarcină de generare a limbajului poate avea consecințe negative în practică.

Deși inteligența artificială ar putea contribui la extinderea accesului la suport psihologic, autorii subliniază că implementarea acestor sisteme trebuie realizată cu prudență și sub reglementări stricte, pentru a evita riscuri pentru utilizatori.


Data actualizare: 03-03-2026 | creare: 03-03-2026 | Vizite: 127
Bibliografie
Zainab Iftikhar, Amy Xiao, Sean Ransom, Jeff Huang, Harini Suresh. How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 2025; 8 (2): 1311 DOI: 10.1609/aies.v8i2.36632
https://ojs.aaai.org/index.php/AIES/article/view/36632

Image by karlyukav on Freepik
©

Copyright ROmedic: Articolul se află sub protecția drepturilor de autor. Reproducerea, chiar și parțială, este interzisă!

Alte articole din aceeași secțiune:

Din Ghidul de sănătate v-ar putea interesa și:
  • Ce consecințe poate avea dezvoltarea necontrolată a inteligenței artificiale?
  • ChatGPT nu poate înlocui specialiștii în nutriție: generarea unor diete cu ajutorul AI poate prezenta riscuri pentru sănătate
  • ChatGTP depășește capacitatea medicilor de a oferi sfaturi empatice la întrebările pacienților
  •