Thu. Jan 15th, 2026

El ex jefe del Comando de Campo de Guerra Especial Naval de EE. UU. (NSWC) advirtió que el Pentágono se está quedando atrás de los adversarios en los desarrollos de inteligencia artificial militar.

Hablando el martes, el Contralmirante Brian Losey dijo que AI puede proporcionar orientación táctica, así como anticipar las acciones enemigas y mitigar las amenazas. Los adversarios con dicha tecnología tendrán una ventaja significativa.

Losey está retirado del ejército pero ahora es socio de Shield AI, con sede en San Diego.

Shield AI se especializa en la construcción de sistemas de inteligencia artificial para el sector de seguridad nacional. El buque insignia de la compañía, Hivemind AI, permite a los robots autónomos "ver", "razonar" y "buscar" en el mundo. Nova es el primer robot con tecnología Hivemind de Shield AI que busca de forma autónoma edificios mientras transmite videos y genera mapas.

Durante un panel de discusión en la conferencia La promesa y El riesgo de la revolución AI, Losey dijo:

"Estamos perdiendo a mucha gente debido a los encuentros con lo desconocido. No saber cuándo entramos en una casa si los hostiles estarán allí y no ser capaces de discernir adecuadamente si hay amenazas antes de que las encontremos. Y así es como incurrimos en la mayoría de nuestras víctimas.

La idea es: ¿podemos usar la autonomía, podemos usar AI de borde, podemos usar AI para maniobrar para mitigar el riesgo para los operadores y reducir las bajas?

La IA tiene beneficios claros hoy para los soldados en el campo de batalla, la policía nacional e incluso áreas como la lucha contra incendios. En el futuro, puede ser vital para la defensa nacional contra armas cada vez más sofisticadas.

Algunos de los adversarios históricos de los Estados Unidos, como Rusia, ya han mostrado desarrollos como robots asesinos y misiles hipersónicos. La IA será vital para igualar las capacidades y, con suerte, actuará como elemento disuasorio para el uso de dicho armamento.

"Si le preocupa la seguridad nacional en el futuro, entonces es imperativo que Estados Unidos lidere la IA para que podamos desarrollar las mejores prácticas para que no nos lleve una IA segura a asumir niveles de riesgo adicionales cuando se trata de acciones letales ”, dijo Losey.

Mientras tanto, el ganador del Premio Nobel de la Paz, Jody Williams, advirtió contra los robots que toman decisiones de vida o muerte en el campo de batalla. Williams dijo que es "inmoral e inmoral" y que nunca se puede deshacer.

Williams habló en la ONU en Nueva York luego del anuncio del Proyecto Quarterback del ejército de los EE. UU. Que usa IA para tomar decisiones sobre a qué soldados humanos deberían apuntar y destruir.

"Necesitamos dar un paso atrás y pensar cómo los sistemas de armas robóticas de inteligencia artificial afectarían a este planeta y a las personas que viven en él", dijo Williams durante un panel de discusión.

Es casi inevitable que la IA se use con fines militares. Podría decirse que lo mejor que podemos esperar es establecer rápidamente normas internacionales para su desarrollo y uso para minimizar el daño potencial impensable.

Una de esas normas que muchos investigadores han respaldado es que la IA solo debe hacer recomendaciones sobre las acciones a tomar, pero un ser humano debe asumir la responsabilidad de cualquier decisión tomada.

Un informe de 2017 de Human Rights Watch concluyó escalofriantemente que nadie es actualmente responsable de que un robot mate ilegalmente a alguien en el fragor de una batalla.

¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber ​​Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.





By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.