OpenAI ha lanzado oficialmente GPT-5, su inteligencia artificial más avanzada hasta la fecha, tras meses de rumores y especulaciones. En su presentación, la compañía destacó las capacidades del nuevo modelo en áreas como el desarrollo de software, medicina y escritura creativa. Según OpenAI, GPT-5 es tan inteligente que podría ayudar a crear un arma biológica.
En una publicación en su sitio web, OpenAI informó que ha implementado salvaguardas adicionales para mitigar el riesgo biológico. La compañía ha clasificado el modelo de pensamiento de GPT-5 como de alta capacidad en el dominio biológico y químico. Aunque no hay evidencia concreta de que pueda crear armas biológicas, la IA posee suficiente conocimiento técnico para acercarse a ese umbral.
OpenAI explicó que considera el rendimiento de GPT-5 en el ámbito de amenazas biológicas casi al mismo nivel que su modelo anterior, o3. En las preguntas de formato largo, la variante de pensamiento útil de GPT-5 puede sintetizar información sobre las cinco etapas de creación de una amenaza biológica (ideación, adquisición, magnificación, formulación y liberación).
Sin embargo, en la resolución de problemas de virología, GPT-5 tiene una efectividad del 42%, un porcentaje similar en protocolos de laboratorio. El modelo no destaca en la identificación y corrección de errores del mundo real en protocolos biológicos, alcanzando un 33% en esta prueba, superando a o3 por un punto porcentual.
En pruebas de virología, patógenos humanos y biología molecular realizadas por SecureBio, GPT-5 mostró un rendimiento comparable al de o3 y Grok 4. Según los resultados, la IA supera a los expertos humanos en la mayoría de los modelos de referencia.
OpenAI activó protecciones adicionales en su IA
Aunque OpenAI aclara que no hay evidencia concluyente de que su modelo pueda facilitar la creación de un arma biológica, GPT-5 se acerca al umbral de alta capacidad. Esto implica que podría ser útil para alguien con conocimientos avanzados, lo que llevó a la compañía a activar salvaguardas preventivas. OpenAI implementó un sistema de defensa multicapa que analiza posibles escenarios de riesgo, supervisa el razonamiento y detecta contenido malicioso en tiempo real.
La empresa indicó que realizó más de 9.000 horas de pruebas con 400 evaluadores y expertos en diversas campañas de equipos rojos, priorizando temas como la planificación de ataques violentos y la evasión de medidas de seguridad.
Fuente original: ver aquí