pentagono_estados_unidos_7a21f9588e
Internacional

Pentágono pacta con tecnológicas para usar su IA clasificada

Expertos mencionan que estos contratos llegan en un momento de ansiedad por el potencial de una dependencia excesiva de la tecnología en el campo de batalla


  • 01
  • Mayo
    2026

El Pentágono informó este viernes que firmó acuerdos con al menos siete empresas tecnológicas para usar inteligencia artificial clasificada en redes informáticas, con el fin de permitir a las  fuerzas armadas aprovechar capacidades para librar guerras.

Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection y SpaceX aportarán sus recursos para ayudar a “aumentar la toma de decisiones de los combatientes en entornos operativos complejos”, indicó el Departamento de Defensa.

El Departamento de Defensa ha acelerado rápidamente su uso de la IA en los últimos años. La tecnología puede ayudar a las fuerzas armadas a reducir el tiempo que tardan en identificar y atacar objetivos en el campo de batalla, además de contribuir a la organización del mantenimiento de armas y las líneas de suministro.

Las inquietudes sobre el uso militar de la IA surgieron durante la guerra de Israel contra milicianos en Gaza y Líbano, cuando gigantes tecnológicos de Estados Unidos reforzaron discretamente la capacidad de Israel para rastrear objetivos. Sin embargo, el número de civiles fallecidos también se disparó, lo que alimentó temores de que estas herramientas contribuyan a la muerte de personas inocentes.

Los contratos más recientes del Pentágono llegan en un momento de ansiedad por el potencial de una dependencia excesiva de la tecnología en el campo de batalla, afirmó Helen Toner, directora general interina del Center for Security and Emerging Technology de la Universidad de Georgetown.

“Gran parte de la guerra moderna se basa en personas sentadas en centros de mando detrás de monitores, tomando decisiones complicadas sobre situaciones confusas y que cambian rápidamente”

Pero, agregó, todavía se están definiendo cuestiones sobre los niveles adecuados de participación humana, el riesgo y la capacitación.

El acuerdo de una de las empresas con el Pentágono incluía un texto que señalaba que debía haber supervisión humana en cualquier misión en la que los sistemas de IA actúen de forma autónoma o semiautónoma.

Esos puntos se parecen a los aspectos que trabaron el acuerdo con Anthropic, aunque OpenAI ya había dicho anteriormente que obtuvo garantías similares cuando cerró su propio trato con el Pentágono.

 


Comentarios

publicidad
×