Cada vez más terapeutas están recurriendo a la inteligencia artificial durante sus sesiones, y algunos pacientes no lo están tomando nada bien. Historias recientes muestran que el uso de ChatGPT en terapia puede poner en riesgo la confianza y la privacidad.
Declan, un joven de Los Ángeles, descubrió que su terapeuta estaba usando ChatGPT por accidente durante una sesión en línea. “Estaba viendo cómo tomaba mis palabras, las ingresaba en ChatGPT y luego me daba un resumen o seleccionaba las respuestas”, relata. La experiencia fue tan surrealista que terminó repitiendo en voz alta lo que sugería la IA, adelantándose a su terapeuta. “Me sentí como el paciente perfecto… pero fue raro y algo perturbador”, cuenta.
Casos como el de Declan no son aislados. Hope, de 25 años, contactó a su terapeuta tras la muerte de su perro y recibió un mensaje “consolador”… hasta que notó que incluía un aviso de IA: “Aquí tienes una versión más humana y sentida”. “Me sentí traicionada y confundida. Justo estaba trabajando mis problemas de confianza”, dice Hope.
Investigaciones muestran que la IA puede ayudar a redactar respuestas empáticas y efectivas, pero solo funciona bien si el paciente desconoce que se está usando. La sospecha de su uso puede dañar la relación.
Expertos coinciden: la IA puede complementar la terapia, pero la transparencia es clave. Los pacientes deben saber cuándo y cómo se está usando. De lo contrario, incluso el mensaje más amable puede sentirse como una traición.
La conclusión es clara: la IA puede ayudar, pero nunca reemplazar la confianza humana.