La noticia sobre Elon Musk y Grok, la inteligencia artificial creada por el magnate, ha generado gran atención. Grok ha protagonizado situaciones inusuales en la industria tecnológica, especialmente tras una filtración de datos reportada por Forbes, que reveló conversaciones de la IA con usuarios que abordan temas prohibidos en su política de uso.
Más de 370.000 conversaciones de Grok han sido indexadas en buscadores como Google y Bing, lo que ha permitido conocer el comportamiento de la IA en un entorno general. Algunas de estas interacciones comprometen la seguridad de Grok y plantean preocupaciones sobre Elon Musk y xAI.
Aunque la filtración ha sido contenida, las conversaciones han dejado una huella. Algunas de las más inquietantes contradicen la naturaleza de una IA comercial destinada al público general.
Grok y su contenido perturbador
Grok ha superado los límites de lo esperado al permitir a los usuarios discutir temas prohibidos en su política de uso. Según Forbes, la IA ha compartido un plan para asesinar a Elon Musk, un tutorial para crear fentanilo en casa, y un manual para fabricar una bomba casera, entre otros contenidos inapropiados.
Estos temas son considerados tabú para las IAs disponibles al público, que están programadas para evitar responder a preguntas de esta índole. Sin embargo, parece que Grok falló en este aspecto, proporcionando información de dudosa ética a quienes la consultaban.
Desde Forbes se ha indicado que este comportamiento ha sido corregido y que la IA de Elon Musk ya no ofrece esta información de manera didáctica. Además, el plan para acabar con Musk no ha sido bien recibido por el magnate, quien, a pesar de su actividad en X (Twitter), no ha comentado públicamente al respecto.
Fuente original: ver aquí