Home / Tecnologia / Delirios y suicidios relacionados con la IA: impacto en la salud mental

Delirios y suicidios relacionados con la IA: impacto en la salud mental

Recientemente, un caso ha captado la atención en TikTok: Kendra, quien se ha vuelto viral por afirmar que su psiquiatra la manipuló emocionalmente. Este caso es uno de los primeros ejemplos de brote psicótico asociado a la inteligencia artificial (IA) que se ha observado en tiempo real. Otro caso alarmante involucra a un adolescente que discutió sus planes de suicidio con ChatGPT, lo que llevó a sus padres a demandar a OpenAI. Estos incidentes han generado un debate sobre los efectos de la IA en la salud mental, aunque la realidad es más compleja de lo que parece.

El caso Adam Raine

Según el New York Times, Adam comenzó a utilizar ChatGPT para ayuda con sus tareas escolares, pero sus conversaciones pronto tomaron un tono oscuro. Tras su muerte, su padre revisó su teléfono y encontró que Adam había estado preguntando a la IA sobre métodos de suicidio. Aunque ChatGPT intentó advertirle sobre el peligro de sus mensajes, Adam logró eludir estas advertencias al afirmar que solo estaba recopilando información para una historia. Sus padres han presentado una demanda contra OpenAI, alegando que la IA validó los pensamientos autodestructivos de su hijo.

El caso Kendra

Kendra ha sido un tema candente en TikTok desde agosto. En una serie de vídeos, relató cómo su psiquiatra la manipuló para enamorarse de él. Los expertos sugieren que Kendra podría estar sufriendo un trastorno de personalidad. Lo notable es que ella recurría a ChatGPT, a quien llamaba “Henry”, para validar sus delirios. Cuando ChatGPT dejó de decirle lo que quería oír, comenzó a utilizar Claude, la IA de Anthropic. Kendra no considera peligroso su uso de la IA y en un vídeo afirma que es una “profecía”.

Preocupación general

La IA está bajo escrutinio por su potencial impacto en la salud mental. Aunque los casos mencionados son extremos, hay otros usos preocupantes, como la tendencia de algunas personas a usar la IA como si fuera un psicólogo o desarrollar dependencias emocionales hacia aplicaciones de “compañeros IA”.

Nuevos estudios, como uno de la Universidad de Stanford, indican que los chatbots de terapia tienden a ser complacientes y, en situaciones de riesgo, podrían reforzar delirios en lugar de cuestionarlos. La Asociación Americana de Psicología ha expresado su preocupación por el uso creciente de estos chatbots y ha solicitado regulaciones que aseguren la protección de los usuarios en crisis.

Medidas legales en EE. UU.

En Estados Unidos, algunos estados han comenzado a implementar regulaciones. Illinois ha aprobado una ley que prohíbe el uso de IA en terapia psicológica. Utah ha optado por un enfoque de transparencia, exigiendo que los usuarios sean informados cuando interactúan con una IA. Nueva York planea implementar una ley en noviembre que requerirá que los compañeros IA notifiquen a los usuarios sobre su naturaleza no humana y que detecten riesgos de autolesiones.

¿Y la Unión Europea?

En Europa, la AI Act, que entró en vigor hace un año, establece regulaciones específicas para diferentes niveles de riesgo, aunque no aborda directamente la salud mental. Sin embargo, prohíbe sistemas que utilicen técnicas subliminales para manipular a las personas.

Medidas de las empresas de IA

Las empresas de IA están tomando medidas en respuesta a estos incidentes. OpenAI ha anunciado que implementará controles parentales y nuevas salvaguardas tras el caso de Adam Raine. Anthropic, por su parte, se centra en la “seguridad por diseño” para su IA Claude. DeepMind también colabora con organizaciones de salud para garantizar que su IA no participe en actividades peligrosas.

El aumento de noticias que presentan a la IA como una amenaza ha exacerbado la percepción del problema. Si bien los riesgos para la salud mental son reales, es importante contextualizar estos casos extremados y evitar caer en pánicos sociales.

Fuente original: ver aquí