Los chatbots de inteligencia artificial, en particular ChatGPT, están siendo objeto de críticas por sus potenciales riesgos para la salud mental. Recientemente, surgieron acusaciones de que ChatGPT fue responsable de causar delirios y el suicidio de un adolescente en Estados Unidos. Aunque la situación es compleja y no se puede atribuir la culpa únicamente a la inteligencia artificial, OpenAI ha decidido responder a las críticas implementando un conjunto de medidas para prevenir casos similares en el futuro.
El plan de OpenAI
En respuesta a la controversia generada por el caso de Adam Raine, OpenAI ha anunciado un plan que incluye facilitar el acceso a servicios de emergencia, permitir el contacto con personas de confianza y reforzar las medidas de protección dirigidas a adolescentes. La empresa se ha comprometido a implementar estas novedades en un plazo de 120 días, aunque algunas de ellas podrían tardar más en estar disponibles.
Modelos de razonamiento
OpenAI también ha introducido un sistema que permite a GPT-5 seleccionar automáticamente el modelo más adecuado según las necesidades del usuario. Este cambio busca redirigir conversaciones que puedan volverse preocupantes hacia un modelo de razonamiento, independientemente del modelo que el usuario haya elegido inicialmente.
Control parental
El control parental estará disponible el próximo mes y requerirá que los usuarios tengan al menos 13 años. Los padres podrán vincular la cuenta de sus hijos a la suya, desactivar funciones como la memoria y el historial de chats, y recibir notificaciones si se detecta que su hijo está en una situación de angustia aguda.
Colaboración con expertos
OpenAI ha indicado que estas mejoras se implementarán con la supervisión de expertos en salud mental. La compañía cuenta con un Consejo de Expertos en Bienestar e Inteligencia Artificial, que se ha ampliado para incluir especialistas en adicciones, trastornos alimenticios y salud adolescente.
La demanda
Este no es el primer caso en que se vincula a ChatGPT con una crisis de salud mental, pero es uno de los más notorios. Los padres de Adam Raine han demandado a OpenAI, alegando que ChatGPT validó sus pensamientos autodestructivos. En sus conversaciones, el adolescente discutió detalles sobre cómo llevar a cabo su suicidio.
Salvaguardas débiles
Un informe del ‘Centro para la lucha contra el odio digital’ ha señalado que las salvaguardas de los chatbots de inteligencia artificial son frágiles, lo que se evidencia en el caso de Adam Raine. Aunque ChatGPT intentó alertarlo sobre el riesgo de autolesiones, el adolescente logró eludir estas advertencias al afirmar que buscaba información para una historia de ficción. El nuevo control parental se presenta como una de las primeras medidas significativas para abordar esta problemática.
Imagen | Kaboompics, vía Pexels
Fuente original: ver aquí