TheVenezuelaTime

#TeExplicamos | Qué es Anthropic, la empresa de IA que Trump prohibió en el gobierno de Estados Unidos

2026-03-01 - 21:29

El presidente de Estados Unidos, Donald Trump, ordenó a todas las agencias federales suspender el uso de la tecnología de Anthropic, una medida que sorprendió a la industria tecnológica. Según el secretario de Defensa, Pete Hegseth, la empresa representa un riesgo para la seguridad nacional. Este tipo de advertencias suele aplicarse a adversarios extranjeros, por lo que usarla contra una compañía estadounidense representa un movimiento inédito. Mientras Trump bloquea a Anthropic, OpenAI firmó un acuerdo con el Pentágono para suministrar sus herramientas de inteligencia artificial a las agencias federales. La compañía trabajará en análisis de datos y proyectos de investigación estratégica, convirtiéndose en la primera firma de IA con respaldo explícito del gobierno estadounidense en este contexto. Estas decisiones se aplican normalmente a adversarios extranjeros, por lo que el anuncio contra una compañía estadounidense representa un movimiento inédito. La decisión de Trump y por qué el gobierno de EE UU vetó a Anthropic Foto: EFE El presidente Trump emitió el 27 de febrero una orden ejecutiva que suspende de inmediato el uso de la tecnología de Anthropic en todas las agencias federales. La medida prohíbe también que cualquier contratista militar haga negocios con la empresa, lo que impacta directamente en su relación con aliados comerciales y proveedores tecnológicos. El secretario de Defensa, Pete Hegseth, explicó que la decisión responde a preocupaciones sobre la seguridad nacional y la cadena de suministro militar. Según el Pentágono, el acceso restringido a la tecnología de Anthropic “era un riesgo que no podía continuar”, debido a la sensibilidad de los datos y de las operaciones que manejan las agencias federales. Este movimiento es inusual en la historia reciente de la política estadounidense. Normalmente, estas advertencias se aplican a empresas externas al país. Qué es Anthropic y cómo funciona su IA Claude Foto: EFE Anthropic es una empresa estadounidense de inteligencia artificial conocida por desarrollar Claude, un modelo capaz de procesar grandes cantidades de información. Claude ha trabajado en las redes clasificadas del Pentágono, convirtiéndose en uno de los modelos de IA utilizados directamente por las Fuerzas Armadas de Estados Unidos. Anthropic firmó un contrato de hasta 200 millones de dólares para este propósito, mientras que otras empresas, como OpenAI, solo han llegado a acuerdos para redes no clasificadas. ¿Por qué se produjo el conflicto entre el Pentágono y Anthropic? Foto: EFE El conflicto se originó por los límites de uso de Claude. El gobierno quería libertad para utilizar la IA en cualquier tarea legal, lo que, en teoría, podría incluir aplicaciones como vigilancia masiva o control de armas autónomas. Sin embargo, Anthropic estableció que Claude no podría usarse para estos fines. Estas restricciones forman parte de la política de uso aceptable incluida en el contrato. La postura de Anthropic fue respaldada públicamente por su director ejecutivo, Dario Amodei, quien defendió que eliminar esos límites abriría la puerta a usos peligrosos de la inteligencia artificial. Las autoridades estadounidenses sostuvieron que no planean usar Claude para esos fines específicos, pero insistieron en su solicitud de mantener libertad completa sobre la tecnología en sus redes clasificadas. La negativa de Anthropic a eliminar estas restricciones provocó el choque que terminó con la prohibición presidencial de Trump. El mensaje del gobierno a Anthropic y al resto de las empresas de IA Foto: Anthropic La pérdida del contrato por parte de Anthropic no representa una amenaza inmediata debido a que recientemente alcanzó una valoración cercana a los 380 millardos de dólares. El mayor problema no es el monto del acuerdo, sino que el gobierno de Estados Unidos la catalogue como un riesgo para su cadena de suministro. En la práctica, esto significa que cualquier empresa que trabaje con las Fuerzas Armadas tendría que demostrar que no usa tecnología de Anthropic en sus proyectos o dejar de hacerlo para no perder contratos gubernamentales. Buena parte del crecimiento de Anthropic depende de contratos empresariales con grandes compañías tecnológicas, muchas de las cuales mantienen o buscan vínculos con el gobierno estadounidense. Para Adam Connor, vicepresidente de política tecnológica del Centro para el Progreso Estadounidense (CAP) y quien fue entrevistado por CNN, esta situación puede provocar que una parte importante de la base de clientes de la empresa se aleje por razones comerciales más que técnicas. Sin embargo, la presión del gobierno podría escalar aún más. El Pentágono reconoció que evalúa la posibilidad de recurrir a la Ley de Producción de Defensa, una norma de 1950 que otorga al presidente amplios poderes para intervenir industrias consideradas estratégicas, de acuerdo con el Consejo de Relaciones Exteriores. No está claro si el gobierno puede, al mismo tiempo, forzar la cooperación de Anthropic y mantenerla clasificada como un riesgo para la cadena de suministro. Expertos legales consultados por CNN coinciden en que el mensaje va más allá de una sola empresa. Para Adam Connor, vicepresidente de política tecnológica de CAP, la medida funciona como una advertencia para otras compañías de IA que negocian con el gobierno para dejar claro que imponer límites éticos estrictos puede tener consecuencias comerciales. En la misma línea, Alan Rozenshtein, profesor de derecho en la Universidad de Minnesota, también consultado por el medio de comunicación sostuvo que el gobierno estadounidense busca mantener acceso a la tecnología de Anthropic y está utilizando todos los mecanismos de presión disponibles para lograrlo.

Share this post: