El 5 de marzo de 2026, el Pentágono anunció una decisión inusual: declarar a Anthropic un “riesgo para la cadena de suministro”. El término se utiliza para indicar que una empresa puede amenazar la existencia, la seguridad o el control de sistemas e infraestructura esenciales para los Estados Unidos. Es excepcional en este caso que por primera vez esta medida se dirija contra una empresa de su propio país.
Una petición que traspasa fronteras éticas
El conflicto surgió cuando el Departamento de Defensa quería que Anthropic eliminara las salvaguardias que impedían que sus sistemas de inteligencia artificial (IA) se utilizaran para la vigilancia masiva de ciudadanos estadounidenses y para desarrollar sistemas de armas totalmente autónomos.
Ante la negativa de Anthropic, la respuesta del Pentágono fue contundente: una empresa privada de IA no puede imponer a priori restricciones operativas cuando el uso previsto de esa nueva tecnología es legal.
En el fragor de la disputa, OpenAI anunció su propio acuerdo con el Pentágono, ya que acepta la legitimidad de imponer restricciones a posteriori dentro de un marco legal.
Ambas posiciones son defendibles en sí mismas, pero la pregunta básica que nos interesa aquí es la segunda: ¿deben resolverse cuestiones de tanta importancia sólo mediante negociaciones entre grandes corporaciones e instituciones estatales?
¿Qué significa la democracia para esto?
Así que este caso particular no se trata de si las empresas de IA deberían o no cooperar en tareas de defensa y vigilancia masiva (Anthropic ya tenía contratos con el Pentágono), sino más bien de una pregunta previa más importante: quién decide qué usos de la IA deben excluirse.
La democracia no puede abordar un problema de esa magnitud invocando únicamente normas legales diseñadas para tecnologías muy diferentes. Cuando, en el ámbito del control ciudadano, la capacidad del Estado para verificar datos, perfilar comportamientos y automatizar inferencias sobre los ciudadanos crece exponencialmente gracias a la inteligencia artificial, la línea entre el uso legal y el uso moralmente legítimo se vuelve menos clara.
Lo mismo ocurre en el ámbito militar, donde son necesarios “niveles apropiados de juicio humano”, como recoge la Directiva 3000.09 del Departamento de Defensa estadounidense. La legalidad no sólo se identifica con la legitimidad.
quien es responsable
Aquí surge un grave problema de atribución de responsabilidad, que no se resuelve haciendo referencia únicamente al “control humano” de la IA; suele estar mal definido y menos delimitado, como queda evidente en la Directiva 3000.09.
Ni en el ámbito militar ni en el ámbito del control ciudadano las decisiones las toma un sistema de inteligencia artificial aislado o una persona claramente identificable. Se incluyen proveedores, contratos, modelos de IA, operadores, cadenas de mando y asesoría legal. El resultado es una asamblea en la que el poder se distribuye y la responsabilidad se diluye.
En el contexto de una vigilancia intensiva de los ciudadanos o del uso de armas militares autónomas, puede ocurrir una situación muy conveniente para todos los involucrados: el sistema funciona, la decisión se ejecuta, el daño está hecho y, sin embargo, nadie parece ser totalmente responsable. La empresa dirá que solo envió una herramienta. El técnico se asegurará de que hayas seguido el procedimiento. El comando afirmará que el sistema está autorizado. Un abogado recordará que no hubo prohibición expresa.
Responsabilidad, la clave
Por eso el caso Antropik es importante más allá del conflicto entre la empresa y el Pentágono. Esto nos obliga a reconocer una tensión que las democracias no han resuelto bien, no sólo porque seguimos aplicando marcos legales anteriores a nuevos sistemas que han ampliado la capacidad de vigilancia y selección autónoma de objetivos militares, sino porque la atribución de responsabilidades es confusa.
Si el proveedor, el técnico, el gerente, el contratista, el asesor legal y la IA intervienen de forma independiente, cada actor conservará cierto control, pero nadie tomará las decisiones finales, que quedan en las “manos” de la máquina. Esta dispersión no es un detalle menor, porque convierte la responsabilidad democrática en una ficción precisamente donde sería más necesaria.
Por tanto, la cuestión decisiva no es sólo si preferimos imponer límites a priori o controles a posteriori. La cuestión más profunda es quién tiene derecho a decidir sobre las fronteras. Si se nos deja solos en manos de las empresas, corremos el riesgo de privatizar decisiones que afectan los derechos humanos y el uso legítimo de la fuerza. Si se deja en manos del Estado y sus contratistas, existe el peligro de que el problema político y moral quede reducido a una cláusula de legalidad formal.
En una democracia, esa elección no debería decidirse ni por la lógica corporativa ni por la razón estatal, sino por la deliberación pública, el control parlamentario y la supervisión independiente. Porque aquí no solo estamos discutiendo cómo utilizar las nuevas tecnologías, sino bajo qué condiciones aceptamos que se reorganice el poder de monitorear, decidir e incluso matar, a través de sistemas autónomos de IA.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

