
El mes pasado, OpenAI publicó un estudio de uso que muestra que casi el 15 por ciento de las conversaciones relacionadas con el trabajo en ChatGPT tenían que ver con “tomar decisiones y resolver problemas”. Ahora llega la anuncio de que al menos un miembro de parada nivel del ejército estadounidense está utilizando LLM para el mismo propósito.
En la Conferencia de la Asociación del Ejército de EE. UU. en Washington, DC, esta semana, el veterano militar William “Hank” Taylor supuestamente dijo que “Chat y yo somos muy cercanos finalmente”, usando un apodo diminuto inquietantemente deudo para referirse a un chatbot de IA no especificado. “La IA es poco que, como comandante, ha sido muy, muy interesante para mí”.
Sitio de noticiero centrado en el ejército DefenseScoop informes que Taylor le dijo a un comunidad de periodistas en una mesa redonda que él y el octavo ejército sus comandos desde Corea del Sur están “utilizando regularmente” IA para modernizar sus prospección predictivo para planificación abastecimiento y fines operativos. Esto es útil para tareas administrativas como “simplemente poder escribir nuestros informes semanales y esas cosas”, dijo Taylor, pero asimismo ayuda a informar su dirección militar.
“Una de las cosas en las que he estado trabajando personalmente con mis soldados recientemente es la toma de decisiones, la toma de decisiones individuales”, dijo Taylor. “Y cómo (tomamos decisiones) en nuestra propia vida individual, cuando tomamos decisiones, es importante. Entonces, eso es poco que he estado preguntando y tratando de construir modelos para ayudarnos a todos. Especialmente, (sobre) cómo tomo decisiones, decisiones personales, ¿verdad? Eso me afecta no sólo a mí, sino a mi estructura y mi preparación militar”.
Esto todavía está muy acullá de terminador visión de sistemas de armas autónomos de IA que toman decisiones letales fuera de las manos humanas. Aún así, el uso de LLM para la toma de decisiones militares podría hacer reflexionar a cualquiera que esté familiarizado con la conocida propensión de los modelos a confabular citas falsas y adular aduladoramente a los usuarios.






