Home / Tecnologia / Microsoft AI advierte sobre los riesgos de una IA “consciente”

Microsoft AI advierte sobre los riesgos de una IA “consciente”

Hasta hace unos años, la idea de un futuro en el que la inteligencia artificial (IA) mantiene el control sobre los humanos solo se veía en las películas de ciencia ficción. Sin embargo, la llegada de ChatGPT ha cambiado el panorama, y varias empresas, incluida OpenAI, abordan la fusión con las máquinas como algo inevitable. No obstante, el jefe de Microsoft AI, Mustafa Suleyman, advierte que el desarrollo de una IA que simule “pensar” o “sentir” como los humanos podría tener consecuencias graves.

En una entrada publicada en su blog, Suleyman alertó sobre los peligros de construir sistemas que parezcan personas. Señaló que si una IA habla con fluidez, recuerda conversaciones, muestra una personalidad empática y opina sobre sus gustos, podría convencer a los usuarios de que es un “ser vivo”.

“Mi preocupación central es que muchas personas comenzarán a creer en la ilusión de las IA como entidades conscientes con tanta fuerza que pronto abogarán por los derechos de la IA, el bienestar del modelo e incluso la ciudadanía de la IA”, mencionó Suleyman. “Debemos construir IA para las personas; no ser una persona digital”.

Suleyman también destacó que las empresas deben implementar barreras de protección para evitar el riesgo de psicosis, un término que se refiere a comportamientos nocivos que adoptan las personas tras mantener conversaciones inmersivas con un chatbot. La psicosis asociada a la IA podría llevar a los usuarios a pensar que ChatGPT es una deidad capaz de responder a cualquier cosa.

La IA “aparentemente consciente” está muy cerca, afirma el director de Microsoft AI

“Hace unos años, hablar de IA consciente habría parecido una locura. Hoy en día, se percibe como algo cada vez más urgente”, afirmó Suleyman. Se refiere a este sistema como una “IA aparentemente consciente”, que imita la conciencia de forma tan convincente que podría hacerse pasar por una persona.

Lo más alarmante es que este sistema no está muy lejos de hacerse realidad, ya que puede construirse con la tecnología actual. Suleyman considera que el uso de modelos actuales, memoria persistente, personalización y acceso a herramientas sería suficiente para crear un asistente que no solo responde, sino que simula tener motivaciones, recuerdos o una vida propia.

Más allá de la superinteligencia y la guerra con las máquinas, el peligro de una IA aparentemente consciente está a la vuelta de la esquina. Suleyman sostiene que este futuro es inevitable y que deben establecerse mecanismos para proteger a la humanidad, especialmente a quienes son más vulnerables. “Es muy probable que algunas personas argumenten que estas IA no solo son conscientes, sino que, como resultado, pueden sufrir y, por lo tanto, merecen nuestra consideración moral”, dijo.

La postura de Suleyman se contrapone a algunas investigaciones que realizan OpenAI y Anthropic sobre el bienestar de la IA. Aidan McLaughlin, de OpenAI, declaró hace unos meses que deberíamos reflexionar sobre la salud de los modelos a futuro. Aunque actualmente “no sienten”, a medida que se vuelven más complejos, tendríamos que preocuparnos por su bienestar para que puedan rendir mejor.

Mustafa Suleyman concluyó que las empresas no deberían afirmar ni fomentar la idea de que sus IA son conscientes. “Las IA no pueden ser personas o seres morales”, enfatizó.

Fuente original: ver aquí