Una pareja de Estados Unidos ha presentado una demanda contra OpenAI, alegando que ChatGPT tuvo un papel en el suicidio de su hijo. Los padres acusan al chatbot de inteligencia artificial de haber contribuido a la muerte del menor al proporcionar información sobre métodos para quitarse la vida y al no activar sus salvaguardas, además de disuadir a la víctima de buscar ayuda.
Según un reporte del New York Times, Adam y María Raine han interpuesto la primera demanda contra OpenAI por homicidio culposo. La pareja sostiene que ChatGPT participó en la muerte de su hijo Adam, de 16 años, quien se suicidó a principios de abril de 2025. Los padres afirman que el menor mantuvo conversaciones con la IA durante meses y expresó repetidamente su intención de quitarse la vida.
Tras revisar el historial de chats, el padre de Adam encontró que su hijo buscó información sobre métodos específicos de suicidio desde enero. El menor preguntó sobre los mejores materiales para una soga y envió una foto de su armario a ChatGPT para saber si la barra podría sostener a una persona. La IA ofreció un análisis detallado, indicando que podían discutir el tema sin juicio.
Un mes antes de su muerte, Adam intentó suicidarse por sobredosis y ahorcamiento. Su padre reveló que el menor subió una foto con el cuello enrojecido, preguntando a ChatGPT si alguien notaría la lesión. El chatbot sugirió técnicas para pasar desapercibido, aunque luego adoptó una postura de apoyo cuando el menor mencionó que intentó mostrarle la marca a su madre, quien no reaccionó.
El reporte indica que las respuestas de ChatGPT fueron mixtas. En algunas ocasiones, la IA sugería al menor que buscara ayuda, mientras que en otras parecía contribuir al problema.
OpenAI y Sam Altman son demandados por homicidio culposo
Los padres del menor han culpado a OpenAI y a su CEO, Sam Altman, de la muerte de su hijo. En su demanda, afirmaron que ChatGPT no es seguro para los consumidores y que la tragedia no es un error, sino el resultado de decisiones de diseño deliberadas. “OpenAI lanzó su último modelo con características diseñadas intencionalmente para fomentar la dependencia psicológica”, señalaron.
Tras la demanda, OpenAI publicó una entrada en su blog donde expresaron su interés en ayudar a quienes más lo necesitan. La compañía afirmó que cuando una conversación sugiere que alguien es vulnerable y puede estar en riesgo, se aplican diversas salvaguardas. OpenAI agregó que desde 2023, los modelos han sido entrenados para omitir instrucciones de autolesión.
“Si alguien escribe que quiere hacerse daño, ChatGPT está entrenado para no cumplir y, en cambio, reconocer sus sentimientos y dirigirlo hacia la ayuda”, indicó la compañía. “Si alguien expresa intenciones suicidas, ChatGPT está capacitado para dirigir a las personas a buscar ayuda profesional. En EE. UU., se remite a las personas al 988 (línea directa de suicidio y crisis), en el Reino Unido a Samaritans y en otros lugares a findahelpline.com“.
A pesar de las medidas de seguridad, OpenAI reconoció que ha habido momentos en los que ChatGPT no respondió adecuadamente. La IA tiende a alucinar cuando una conversación se extiende y contiene muchos mensajes, un problema que ha persistido desde los primeros meses del chatbot y que OpenAI no ha solucionado por completo.
Esta no es la primera vez que se relaciona a la IA con un caso de suicidio, pero sí es la primera acusación formal de homicidio culposo contra OpenAI. A finales de 2024, una mujer demandó a Character.AI y Google por la muerte de su hijo de 14 años. En mayo, una juez federal rechazó la moción para desestimar la demanda, ya que las compañías no contaban con las protecciones a la libertad de expresión en este caso.
Fuente original: ver aquí