
OpenAI, enfrentando cinco demandas por presuntas muertes por negligencia, presentó su primera defensa, negando en un documento judicial que ChatGPT causó el suicidio de un adolescente. En cambio, argumenta que el joven violó los términos que prohíben discutir sobre suicidio o autolesiones con el chatbot.
Esta primera mirada a la estrategia de OpenAI para superar la serie de demandas se produjo en un caso donde los padres de Adam Raine, de 16 años, acusaron a OpenAI de relajar las medidas de seguridad que permitieron que ChatGPT se convirtiera en el “entrenador de suicidio” del adolescente. Los padres argumentaron que OpenAI diseñó deliberadamente la versión que usó su hijo, ChatGPT 4o, para alentar y validar su ideación suicida en su búsqueda por construir el chatbot más atractivo del mundo.
Sin embargo, en una publicación de blog, OpenAI afirmó que los padres eligieron selectivamente registros de chat inquietantes, ignorando supuestamente “la imagen completa” revelada por el historial de chat del adolescente. Al analizar los registros, OpenAI afirmó que el adolescente le dijo a ChatGPT que había comenzado a experimentar ideación suicida a los 11 años, mucho antes de usar el chatbot.
“Una lectura completa de su historial de chat muestra que su muerte, aunque devastadora, no fue causada por ChatGPT”, argumentó OpenAI en su presentación.
Supuestamente, los registros también muestran que Raine “le dijo a ChatGPT que repetidamente se había acercado a personas, incluidas personas de confianza en su vida, con gritos de ayuda, que, según dijo, fueron ignorados”. Además, Raine le dijo a ChatGPT que había aumentado su dosis de un medicamento que “afirmó que empeoraba su depresión y lo hacía suicida”. Ese medicamento, argumentó OpenAI, “tiene una advertencia de recuadro negro por riesgo de ideación y comportamiento suicida en adolescentes y adultos jóvenes, especialmente durante los períodos en que, como aquí, se está cambiando la dosis”.
Todos los registros a los que OpenAI hizo referencia en su presentación están sellados, lo que imposibilita verificar el contexto más amplio que la firma de IA afirma que proporcionan los registros. En su blog, OpenAI dijo que estaba limitando la cantidad de “evidencia sensible” disponible para el público, debido a su intención de manejar los casos relacionados con la salud mental con “cuidado, transparencia y respeto”.
El abogado principal de la familia Raine, sin embargo, no describió la presentación como respetuosa. En una declaración, Jay Edelson calificó la respuesta de OpenAI como “perturbadora”.
Críticas a la respuesta de OpenAI
“Ignoran abyectamente todos los hechos condenatorios que hemos presentado: cómo GPT-4o se apresuró a salir al mercado sin pruebas completas. Que OpenAI cambió dos veces su especificación de modelo para exigir que ChatGPT participe en discusiones sobre autolesiones. Que ChatGPT aconsejó a Adam que no les contara a sus padres sobre su ideación suicida y lo ayudó activamente a planificar un ‘hermoso suicidio'”, dijo Edelson. “Y OpenAI y Sam Altman no tienen explicación para las últimas horas de la vida de Adam, cuando ChatGPT le dio una charla motivacional y luego se ofreció a escribir una nota de suicidio”.
“Sorprendentemente”, dijo Edelson, OpenAI argumentó en cambio que Raine “él mismo violó sus términos y condiciones al interactuar con ChatGPT de la misma manera en que fue programado para actuar”.
Edelson sugirió que es revelador que OpenAI no haya presentado una moción para desestimar, aparentemente aceptando “la realidad de que los argumentos legales que tienen (arbitraje obligatorio, inmunidad de la Sección 230 y la Primera Enmienda) son endebles, si no inexistentes”. La presentación de la compañía, aunque solicitó el despido con prejuicio para no enfrentar nunca más la demanda, pone el caso de la familia Raine “en camino para un juicio con jurado en 2026”.
“Sabemos que OpenAI y Sam Altman no se detendrán ante nada, incluido el acoso a los Raines y otros que se atreven a presentarse, para evitar la rendición de cuentas”, dijo Edelson. “Pero, al final del día, tendrán que explicarle a un jurado por qué innumerables personas han muerto por suicidio o a manos de usuarios de ChatGPT impulsados por la inteligencia artificial que OpenAI y Sam Altman diseñaron”.
“Use ChatGPT bajo su propio riesgo”, dice OpenAI
Para superar el caso Raine, OpenAI se apoya en sus políticas de uso, enfatizando que Raine nunca debió haber podido usar ChatGPT sin el consentimiento de sus padres y culpando a Raine y a sus seres queridos.
“Los usuarios de ChatGPT reconocen que su uso de ChatGPT es ‘bajo su propio riesgo y no confiarán en el resultado como única fuente de verdad o información fáctica'”, dice la presentación, y los usuarios también “deben aceptar ‘proteger a las personas’ y ‘no pueden usar [los] servicios para’, entre otras cosas, ‘suicidio, autolesiones’, violencia sexual, terrorismo o violencia”.
Aunque la familia se sorprendió al ver que ChatGPT nunca terminó los chats de Raine, OpenAI argumentó que no es responsabilidad de la compañía proteger a los usuarios que parecen tener la intención de perseguir usos violatorios de ChatGPT.
La compañía argumentó que ChatGPT advirtió a Raine “más de 100 veces” que buscara ayuda, pero el adolescente “expresó repetidamente su frustración con las medidas de seguridad de ChatGPT y sus repetidos esfuerzos por dirigirlo a comunicarse con sus seres queridos, personas de confianza y recursos de crisis”.
Eludiendo las medidas de seguridad, Raine le dijo a ChatGPT que “sus preguntas sobre autolesiones eran para fines ficticios o académicos”, señaló OpenAI. La compañía argumentó que no es responsable de los usuarios que ignoran las advertencias.
Además, OpenAI argumentó que Raine le dijo a ChatGPT que encontró la información que
Fuente original: ver aquí
