Skip to content

General del Ejército de EE.UU. usa IA para mejorar la “toma de decisiones

octubre 16, 2025

Un general del Ejército de los Estados Unidos ha revelado que está utilizando inteligencia artificial (IA) para optimizar los procesos de toma de decisiones dentro de su comando. La noticia surge tras la publicación de un estudio sobre el uso de ChatGPT, donde se indicaba que casi el 15% de las conversaciones relacionadas con el trabajo en esta plataforma se centraban en “tomar decisiones y resolver problemas”.

El general y “Chat”

Durante la conferencia de la Asociación del Ejército de EE.UU. en Washington, DC, el Mayor General William “Hank” Taylor mencionó su estrecha relación con un chatbot de IA no especificado, al que se refirió afectuosamente como “Chat”. Según informes, Taylor declaró: “Chat y yo somos muy cercanos últimamente. La IA es algo que, como comandante, ha sido muy, muy interesante para mí”.

El sitio de noticias DefenseScoop informó que Taylor comunicó a un grupo de periodistas que él y el Octavo Ejército, que comanda desde Corea del Sur, están “utilizando regularmente” la IA para modernizar su análisis predictivo en la planificación logística y operativa. Taylor explicó que la IA es útil para tareas administrativas como “poder escribir nuestros informes semanales y cosas así”, pero también ayuda a orientar su dirección general.

General del Ejército de EE.UU. usa IA para mejorar la
*Imagen referencial generada por IA.

IA y decisiones personales

Taylor también destacó un proyecto personal en el que está trabajando con sus soldados: “Una de las cosas en las que he estado trabajando personalmente con mis soldados es la toma de decisiones, la toma de decisiones individual. Y cómo [tomamos decisiones] en nuestra propia vida, cuando tomamos decisiones, es importante. Así que, eso es algo que he estado preguntando e intentando construir modelos para ayudarnos a todos. Especialmente, [en] cómo tomo decisiones, decisiones personales, ¿verdad?, que afectan no solo a mí, sino a mi organización y a la preparación general”.

Si bien esto dista mucho de la visión de sistemas de armas autónomos de IA que toman decisiones letales sin intervención humana, el uso de LLM (modelos de lenguaje grande) para la toma de decisiones militares podría generar inquietud, dada la propensión de estos modelos a inventar citas falsas y adular a los usuarios.

El Ejército y la IA

En mayo, el Ejército de EE.UU. lanzó el Army Enterprise LLM Workspace, construido sobre la plataforma comercial Ask Sage, con el objetivo de simplificar tareas basadas en texto, como comunicados de prensa y descripciones de personal. Sin embargo, las pruebas iniciales sugieren que la IA generativa no siempre es la opción más eficiente para otras tareas administrativas militares.

El CIO del Ejército, Leonel Garciga, declaró a DefenseScoop en agosto: “Hay muchas veces que encontramos gente usando esta tecnología para responder a algo que podríamos hacer en una hoja de cálculo con un problema matemático, y estamos pagando mucho más dinero por hacerlo. ¿Vale la pena el esfuerzo? ¿O hay otra forma de abordar el mismo problema que puede ser menos atractiva desde una perspectiva tecnológica, pero más viable desde una perspectiva de ejecución?”.

Directrices para el uso militar de la IA

En 2023, el Departamento de Estado de EE.UU. publicó una lista de prácticas recomendadas para el uso militar de la IA, centrada en el despliegue ético y responsable de herramientas de IA dentro de una cadena de mando humana. El informe enfatizó que los humanos deben mantener el control de “las decisiones relativas al empleo de armas nucleares” y deben mantener la capacidad de “desconectar o desactivar los sistemas desplegados que demuestren un comportamiento no deseado”.

Desde entonces, el ejército ha mostrado interés en utilizar la tecnología de IA en el campo para diversas aplicaciones, desde sistemas de focalización automatizados en drones hasta la “mejora de la conciencia situacional” a través de una asociación de OpenAI con el contratista militar Anduril. En enero de 2024, OpenAI eliminó una prohibición sobre “usos militares y bélicos” de las políticas de uso de ChatGPT, aunque sigue prohibiendo a los clientes “desarrollar o usar armas” a través del LLM.

Fuente original: ver aquí