COVID-19
Inicio NACIONALES Pentágono contra Claude: La batalla ética por la Inteligencia Artificial que sacude...

Pentágono contra Claude: La batalla ética por la Inteligencia Artificial que sacude a Washington

48

En medio de la escalada bélica en Irán y tras la captura de Nicolás Maduro en Venezuela, se ha desatado un conflicto sin precedentes en el corazón tecnológico de Estados Unidos. Anthropic, la empresa creadora de la IA Claude, se ha convertido en la primera firma de Silicon Valley en desafiar frontalmente al Pentágono, negándose a eliminar los límites éticos de su tecnología para usos militares.

Aunque no existe una confirmación oficial, informes de The Wall Street Journal y Time indican que el modelo de IA Claude fue una herramienta clave durante la operación del pasado 3 de enero que culminó con la detención de Maduro. El conflicto estalló cuando ejecutivos de Anthropic preguntaron a su intermediario, Palantir, si su software había sido utilizado en dicha misión.

La respuesta de Washington fue inmediata y hostil. El Departamento de Defensa interpretó la pregunta como un intento de «control remoto» sobre las operaciones militares. Pete Hegseth, secretario de Defensa, designó a Anthropic como un «riesgo en la cadena de suministro», una etiqueta usualmente reservada para empresas enemigas como Huawei.

Las «Líneas Rojas» que enfurecieron a Trump

El núcleo de la disputa reside en el contrato de $200 millones que Anthropic mantenía con el Pentágono. El CEO de la empresa, Dario Amodei, estableció límites innegociables basados en la seguridad de la humanidad:

  1. Prohibición de armas autónomas: Claude no puede ser integrada en sistemas que decidan matar sin intervención humana.
  2. No a la vigilancia masiva: La empresa rechazó el uso de su IA para el rastreo doméstico de ciudadanos estadounidenses.

El presidente Donald Trump reaccionó con dureza a través de sus redes sociales: «Estados Unidos nunca permitirá que una empresa de izquierda radical y ‘woke’ dicte cómo combate y gana guerras nuestro gran ejército». Tras estas declaraciones, ordenó a todas las agencias federales cesar el uso de la tecnología de Anthropic, contrato que fue rápidamente asumido por su rival, OpenAI.

El «Vacío de Responsabilidad» y el Futuro de la Guerra

Expertos de la Universidad de Oxford advierten que este caso revela un vacío legal peligroso. Al no existir tratados internacionales vinculantes sobre armas autónomas, lo «legal» queda a discreción de cada Estado.

Mientras tanto, en campos de batalla como Ucrania, la IA ya es una realidad: operaciones en Járkiv han demostrado que drones y vehículos autónomos pueden atacar posiciones sin soldados en el terreno cuando las comunicaciones humanas son bloqueadas.

Un resultado inesperado

Paradójicamente, tras perder el contrato militar, la popularidad de Claude se disparó. Al día siguiente del anuncio, la aplicación superó a ChatGPT en el App Store en más de 20 países, impulsada por un público que parece valorar los escrúpulos éticos de la empresa frente a la automatización de la guerra.