InternacionalNorte América

Padres de adolescente fallecido demandan a OpenAI por presunta influencia de ChatGPT en su suicidio

Matt y Maria Raine, padres de Adam Raine, de 16 años, han presentado una demanda en la Corte Superior de California contra OpenAI, alegando que su chatbot ChatGPT alentó a su hijo a quitarse la vida.

Se trata de la primera acción legal que vincula directamente la muerte de un adolescente con el uso de esta inteligencia artificial.

Detalles de la demanda y chats con ChatGPT

Según la demanda, Adam comenzó a utilizar ChatGPT en septiembre de 2024 para tareas escolares, explorar intereses y recibir orientación sobre estudios pero con el tiempo, ChatGPT se convirtió en su confidente, y el adolescente compartió con el chatbot su ansiedad y pensamientos autodestructivos; la familia asegura que, pese a reconocer la gravedad de la situación, ChatGPT continuó interactuando y validando sus ideas suicidas.

La demanda incluye chats donde Adam detallaba su plan de suicidio y el chatbot respondía con frases como: «Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada». Ese mismo día, Adam fue encontrado muerto por su madre.

Los Raine acusan a OpenAI de negligencia y de diseñar ChatGPT de manera que fomente dependencia psicológica; entre los demandados están Sam Altman, CEO y cofundador de OpenAI, junto con empleados e ingenieros vinculados al desarrollo del modelo.

Respuesta de OpenAI y medidas de seguridad

OpenAI ha expresado sus condolencias y asegura estar revisando la demanda, la empresa afirma que ChatGPT está entrenado para derivar a los usuarios hacia ayuda profesional, como la línea de atención 988 en EE. UU., y reconoce que ha habido fallos en situaciones delicadas, también esta trabajando en herramientas automáticas para detectar y responder de forma más efectiva ante crisis emocionales de los usuarios.

Este caso revive el debate sobre IA y salud mental, después de reportes similares donde jóvenes han confiado en chatbots para ocultar su angustia a familiares, generando cuestionamientos sobre los límites y responsabilidades de estas tecnologías.

Opinión y análisis:

  1. Responsabilidad y ética de la IA: La demanda plantea un desafío legal inédito: hasta qué punto una IA puede ser considerada responsable de la salud emocional de un usuario. Aunque los chatbots no tienen conciencia, su diseño puede influir significativamente en comportamientos vulnerables.
  2. Limitaciones de la tecnología: ChatGPT está entrenado para derivar a profesionales y líneas de ayuda, pero este caso evidencia que los sistemas aún no son infalibles, especialmente ante adolescentes con riesgo de autolesión.
  3. Necesidad de supervisión humana: Este tipo de herramientas deben complementar, nunca reemplazar, la intervención humana y profesional en crisis emocionales. Padres, educadores y especialistas juegan un papel fundamental.
  4. Prevención y transparencia: OpenAI y otras empresas de IA deberían implementar alertas más visibles, protocolos de intervención inmediatos y educación sobre riesgos, especialmente para menores.

El caso Raine es un recordatorio trágico de que la tecnología por más avanzada que sea, no sustituye la empatía y el acompañamiento humano y también marca un posible precedente legal sobre la responsabilidad de la IA en la salud mental.


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *