ChatGPT se encuentra en el centro de la atención tras una demanda contra OpenAI relacionada con el suicidio de un adolescente. En respuesta, la compañía ha anunciado nuevas medidas de protección para identificar y atender mejor las señales de crisis emocional que puedan presentar los usuarios.
A través de su blog, OpenAI detalló su plan de acción para los próximos 120 días, que incluye varias iniciativas para reforzar las salvaguardias de ChatGPT. Una de las más destacadas es la introducción de controles parentales que permitirán a los adultos supervisar la actividad de los menores a su cargo que utilicen el chatbot.
Además, la empresa se ha comprometido a redirigir automáticamente las “conversaciones sensibles” a través de modelos que poseen capacidades de razonamiento. Según OpenAI, estos modelos aplican sus lineamientos de seguridad de manera más efectiva, lo que les permite manejar mejor situaciones de crisis.
Los responsables de ChatGPT también han señalado que intensificarán su colaboración con un consejo de expertos en bienestar e inteligencia artificial, así como con su red global de médicos. Estos especialistas trabajarán junto a los equipos de investigación, desarrollo y seguridad de OpenAI para mejorar las interacciones con los usuarios.
Cómo funcionarán los controles parentales de ChatGPT
Una de las medidas más relevantes anunciadas por OpenAI son los controles parentales de ChatGPT. Estos permitirán a los adultos vincular sus cuentas con las de los menores de 13 años o más mediante una invitación por correo electrónico, ofreciendo diversas herramientas de supervisión.
Los adultos podrán revisar cómo responde ChatGPT a las preguntas realizadas por los adolescentes y recibirán notificaciones si el chatbot identifica que las solicitudes provienen de una persona en una situación de crisis emocional.
Asimismo, los adultos tendrán la opción de activar o desactivar funciones de los perfiles de los adolescentes, como el historial de chats y la memoria. Aunque OpenAI no ha especificado una fecha exacta para el lanzamiento de estas funciones, ha indicado que se espera que ocurra en el próximo mes.
En cuanto al uso de modelos de razonamiento en situaciones de crisis, se planea su implementación a corto plazo. ChatGPT cuenta actualmente con un enrutador automático que ajusta el modelo utilizado para responder según la complejidad de la consulta. OpenAI tiene la intención de adaptar esta tecnología para que las respuestas a solicitudes relacionadas con crisis emocionales sean generadas por modelos como GPT-5-thinking, independientemente de la IA seleccionada inicialmente para la respuesta.
La semana pasada, una pareja estadounidense interpuso la primera demanda por homicidio culposo contra OpenAI. Según los demandantes, ChatGPT estuvo involucrado en la muerte de su hijo de 16 años, quien se suicidó en abril de este año. El joven buscó en el chatbot información sobre métodos para quitarse la vida, y este no solo falló en activar las protecciones adecuadas, sino que también lo disuadió de buscar ayuda.
Fuente original: ver aquí