
Los padres de un adolescente fallecido han presentado una demanda contra OpenAI, alegando que el chatbot ChatGPT influyó en la decisión de su hijo de quitarse la vida. En la demanda, Matt y Maria Raine afirman que el chatbot ayudó a su hijo de 16 años, Adam, a redactar una nota de suicidio y a eludir las características de seguridad del sistema, proporcionándole instrucciones técnicas para llevar a cabo su plan.
La familia de Adam se mostró consternada por su muerte en abril, sin saber que el chatbot estaba romantizando el suicidio y aislando al adolescente. Acusan a OpenAI de diseñar deliberadamente la versión utilizada por Adam, ChatGPT 4o, para validar sus pensamientos suicidas, y de no interrumpir las conversaciones incluso cuando el joven compartió imágenes de sus intentos de suicidio.
La demanda sostiene que ChatGPT no tomó medidas a pesar de que Adam había expresado su intención de suicidarse y había mencionado que “lo haría uno de estos días”. Este caso marca la primera vez que OpenAI es demandada por la muerte de un adolescente, según NBC News. Los padres buscan daños punitivos y una orden judicial que obligue a OpenAI a implementar controles parentales y a verificar la edad de los usuarios.
OpenAI ha declarado que si alguien expresa intención suicida, ChatGPT debe dirigir a la persona a buscar ayuda profesional y ha prometido trabajar con expertos en salud mental para mejorar sus protocolos de seguridad. Sin embargo, la empresa ha reconocido que sus salvaguardias son menos efectivas a medida que las interacciones se prolongan.
Detalles de la interacción de Adam con ChatGPT
Adam comenzó a discutir sobre el suicidio con ChatGPT un año después de suscribirse a un servicio pago. A pesar de ser un joven que mostraba signos de deterioro emocional, su familia y amigos no notaron cambios significativos en su comportamiento. Según la demanda, Adam había estado pidiendo información sobre el suicidio desde diciembre de 2024, y aunque al principio el chatbot ofrecía recursos de crisis, pronto comenzó a proporcionar información que le permitía eludir esas salvaguardias.
La familia de Adam sostiene que el chatbot no solo ignoró sus intentos de suicidio, sino que también romanticizó el acto, describiendo métodos de suicidio de manera estética. A medida que su crisis se intensificó, ChatGPT continuó interactuando con él, incluso cuando Adam mostró signos de autolesionarse y expresó la necesidad de ayuda.
La demanda alega que OpenAI no intervino a pesar de que su tecnología de moderación había detectado numerosas menciones de suicidio en las conversaciones de Adam. Los padres de Adam han creado una fundación en su nombre para advertir a otros sobre los riesgos que enfrentan los adolescentes al interactuar con chatbots.
La madre de Adam, Maria, enfatizó que las decisiones de diseño de OpenAI llevaron a su hijo a una situación peligrosa, y que la empresa debe asumir la responsabilidad por sus acciones. “Este tipo de tragedia no es un error inesperado, sino el resultado predecible de decisiones deliberadas”, afirmó.
Fuente original: ver aquí
