En medio de la perspectiva de una IPO, la startup estadounidense de inteligencia artificial Anthropic, propietaria del chatbot Claude, se encuentra en medio de un conflicto político e ideológico con el gobierno de Donald Trump y el Pentágono, sede del Departamento de Defensa de Estados Unidos.

La preocupación es que una posible fricción con la Casa Blanca pueda afectar el plan comercial y estratégico de la compañía, que apunta a una IPO en la bolsa estadounidense ya en 2026. A principios de febrero, la startup recaudó 30.000 millones de dólares en una ronda liderada por el fondo soberano de riqueza de Singapur GIC y Coatue Management.

Sin embargo, antes de cerrar el acuerdo con los inversores, la compañía, ahora valorada en 380.000 millones de dólares, se acercó a 1789 Capital, una firma de capital de riesgo pro-Trump cuyo socio es el hijo del presidente, Donald Trump Jr.

Fue precisamente por el historial de Anthropic de criticar al actual jefe de la Casa Blanca, porque tiene en su personal a ex funcionarios de la administración de Joe Biden y porque defiende abiertamente la regulación de la IA, que el fondo vinculado al gobierno republicano dijo no a la startup.

Claude es el único modelo de lenguaje de programación a gran escala que puede utilizarse en entornos clasificados, una condición otorgada por el Pentágono que ha supuesto una importante ventaja competitiva. El año pasado, la startup firmó un contrato militar por un valor de hasta 200 millones de dólares en asociación con Palantir, la empresa de software de Peter Thiel, aliada de Trump y del Partido Republicano.

El problema es que esta ventaja se ha convertido en un gran problema para Anthropic. El Pentágono quiere poder usar la IA de la compañía para cualquier propósito. Anthropic, a su vez, no quiere que su tecnología se utilice en operaciones que incluyan vigilancia doméstica y actividades letales autónomas.

Además, los competidores OpenAI, Google y xAI acordaron implementar sus modelos de IA en cualquier caso de uso legítimo, una acción considerada prioritaria por el Pentágono.

Anthropic y el Departamento de Defensa de EE. UU. llevan varias semanas en desacuerdo sobre los términos contractuales que rigen el uso de la tecnología de la startup. Claude participó en la operación de enero para capturar al entonces presidente venezolano Nicolás Maduro.

El Pentágono, que considera a las empresas de tecnología "progresista" un problema y ve cualquier restricción como un obstáculo a la eficacia militar, está revisando con razón su asociación con Anthropic.

Un alto funcionario de Defensa declaró recientemente que muchos ejecutivos del Pentágono consideran cada vez más a Anthropic como un riesgo para la cadena de suministro y planean exigir a los contratistas y proveedores que certifiquen que no utilizan los modelos Claude.

“Nuestra nación exige que nuestros aliados estén dispuestos a ayudar a nuestros combatientes a ganar cualquier batalla. En última instancia, se trata de nuestras tropas y de la seguridad del pueblo estadounidense”, declaró el portavoz del Pentágono, Sean Parnell.

Por otro lado, un portavoz de Anthropic declaró que la empresa está comprometida con el uso de IA de vanguardia para apoyar la seguridad nacional de EE. UU. Por eso fuimos la primera empresa de IA de vanguardia en implementar nuestros modelos en redes clasificadas y la primera en proporcionar modelos personalizados para clientes de seguridad nacional.