LUN, 2 / MAR / 2026

Trump quiere deshacerse de Anthropic, pero EEUU utiliza a Claude para atacar a Irán

La desarrolladora insiste con mantener las restricciones de uso en su IA. El presidente de EEUU ha calificado a la empresa como una organización de locos izquierdistas.

Anthropic no ha dado el brazo a torcer y ha mantenido las restricciones de uso en su sistema de inteligencia artificial. El presidente de Estados Unidos, Donald Trump, ha ordenado a todas las agencias federales el cese inmediato del uso de la tecnología de la compañía. “No los necesitamos, no los queremos, y no haremos negocios con ellos de nuevo”, apunto el mandatario en su red social. Aclaraciones posteriores parecen indicar que de inmediato significa un proceso gradual de 6 meses, dado que algunas organizaciones como el Departamento de Guerra utilizan los productos de Anthropic en varios niveles.

Pete Hegseth, secretario de defensa, señaló que Anthropic ha pasado ha ser considerada un riesgo para la cadena de suministros.

Anthropic y el Pentágono en conflicto por el uso de las IA

Claude y el ataque al régimen iraní

Las declaraciones políticas han chocado contra las necesidades del mundo real. Estados Unidos ha atacado a Irán y los militares han buscado los mejores recursos a su disposición. The Wall Street Journal asegura que Claude, la IA de Anthropic, ha sido utilizada por el pentágono. Se la ha empleado en evaluaciones de inteligencia, identificación de objetos y simulaciones de escenarios de batalla.

Nada de armas automatizadas o vigilancia masiva hasta donde sabemos.

Claude también había sido utilizado en la captura de Nicolás Maduro en enero. Anthropic fue la primera empresa en conseguir un contrato con el gobierno estadounidense para el uso militar de su IA en 2024.

La furia de Trump, la respuesta de Anthropic

Trump calificó a Anthropic como una organización de locos izquierdistas. Afirmó que cometieron el error de intentar presionar al Departamento de Guerra y obligarlo a obedecer sus términos de servicio en lugar de la constitución.

Por su parte, Anthropic ha señalado que ningún nivel de intimidación o castigo por parte del Departamento de Guerra cambiará su posición sobre las armas automatizadas y la vigilancia masiva.

OpenAI, lo que diga la ley

Sam Altman, director de OpenAI, ha apuntado en una nota interna que la compañía comparte los mismo límites que sus colegas. El documento que llegó a manos de la BBC apunta que los contratos con los militares también rechazarán cualquier implementación ilegal, como la vigilancia doméstica y las armas autónomas de carácter ofensivo.

Es importante notar que Anthropic sostenía estos límites como propios, más allá de lo que dicta la ley. El problema de Anthropic y el Pentágono estaba en parte marcado por la posibilidad de superar estos límites si la ley lo permitía en el futuro.

Poco después de estas declaraciones OpenAI anunció un acuerdo con el Departamento de Guerra para el uso de las IA. Esto hace pensar que la nota de OpenAI ha sido una manera de calmar los ánimos dentro de la organización que posiblemente cuenta con profesionales con inquietudes similares a los de Anthropic.

El futuro

Es difícil por el momento saber cuanto ha perdido Anthropic con esta disputa. Seguramente tendrá algunos problemas. Pero la pérdida económica inmediata no será tan grave. Los contratos que ofreció el gobierno estadounidenses a las desarrolladoras han sido hasta el momento de relativo menor valor (USD 200 millones). Sobre todo si los comparamos con los gastos que tienen las empresas.

Muchos creen que a cambio ha obtenido un gran acto de relaciones públicas que la ha mostrado como una empresa de firmes principios éticos. También es posible que Anthropic haya anticipado los conflictos en los que se iba a utilizar Claude, y calculado el problema de prensa que tendría al mostrar las victimas colaterales de los mismos.

Comentarios
¡Comparte esta noticia!
TAGS

Comments are closed.