La payasada de la IA de Trump: si no me das dinero, te insultaré

Título original: La comedia de IA de Trump: No te doy dinero, te insulto

Autor original: 0x2333

Fuente original:

Reproducción: Mars Finance

El CEO de Anthropic, Dario Amodei, envió el pasado viernes un memorando interno de 1600 palabras a todos los empleados. Este memorando fue divulgado hoy por el medio de tecnología The Information, lo que desató un revuelo en Silicon Valley.

El núcleo del memorando es una sola frase: Anthropic fue censurado por el gobierno de Trump, no por desacuerdos sobre las cláusulas de seguridad, sino porque no donaron fondos.

A 25 millones de dólares de distancia

Dario mencionó específicamente a OpenAI en el memorando.

Dijo que la verdadera razón por la que el gobierno de Trump no quería a Anthropic era: la empresa no donó a Trump ni le rindió “alabanza dictatorial”. Mientras tanto, OpenAI, tanto en dinero como en postura, sí lo hizo.

En septiembre de 2025, Greg Brockman, presidente de OpenAI, y su esposa donaron 25 millones de dólares a MAGA Inc, el comité de acción política (PAC) de Trump. Según los registros de la Comisión Federal Electoral, esta fue la mayor donación individual de ese período, representando casi una cuarta parte de los fondos recaudados en medio año. Brockman posteriormente publicó en redes sociales que la donación era para “apoyar políticas que impulsen la innovación en EE. UU.” y elogió al gobierno de Trump por “estar dispuesto a interactuar directamente con la comunidad de IA”.

El CEO Sam Altman tomó un camino diferente. Aunque no donó grandes sumas a MAGA Inc, en diciembre de 2024 donó 1 millón de dólares a la comisión de inauguración de Trump. Pero lo más importante fue su postura: al día siguiente de la toma de posesión de Trump, Altman apareció tras el sello presidencial en la sala Roosevelt de la Casa Blanca y anunció el proyecto de infraestructura de IA Stargate, valorado en 500 mil millones de dólares, diciendo frente a las cámaras a Trump: “Sin usted, esto no sería posible”. En la cena tecnológica en la Casa Blanca en septiembre de 2025, le dijo directamente a Trump: “Gracias por ser un presidente tan pro-empresa y pro-innovación”.

Curiosamente, este mismo Sam Altman escribió en 2016: “Para cualquiera familiarizado con la historia alemana de los años 30, las acciones de Trump son escalofriantes”. También comparó a Trump con Hitler y discutió sobre “la gran mentira”. Antes de las elecciones de 2024, donó 200 mil dólares al Partido Demócrata para apoyar la reelección de Biden.

Y Anthropic, nada hizo. No donó, no asistió a cenas, no estuvo tras el sello presidencial agradeciendo.

Es la primera vez en la industria de IA que un CEO de una empresa de élite hace público esto: la forma en que te tratan en Washington depende de cuánto dinero le entregaste a la Casa Blanca.

Dario también criticó directamente el contrato que OpenAI firmó con el Pentágano. Dijo que OpenAI aceptó ese contrato porque “les importa calmar a sus empleados, mientras que a nosotros nos importa realmente prevenir abusos”, y que la estrategia de relaciones públicas de OpenAI en torno a ese contrato era “una mentira descarada”.

La reacción de la Casa Blanca confirmó indirectamente lo que decía Dario. Un funcionario del gobierno dijo a Axios: “No se puede confiar en que Claude no esté ejecutando en secreto la agenda personal de Dario en entornos confidenciales”. El ministro de Finanzas, Scott Bessent, respondió en Twitter, afirmando que ninguna empresa privada debe influir en las cláusulas de seguridad nacional de EE. UU.

En su respuesta, no se mencionó ni una sola palabra sobre las diferencias técnicas en las cláusulas de seguridad. Todo fueron ataques personales.

Tras la filtración del memorando, el ex CEO de Google, Eric Schmidt, apoyó públicamente a Dario, diciendo: “Dario tiene razón, esta es una de las decisiones más importantes que enfrentamos como sociedad”. Al mismo tiempo, el CEO de OpenAI, Altman, admitió en un memorando interno que firmar el contrato con el Pentágono unas horas antes de que Anthropic fuera censurado “parece ser una jugada arriesgada y precipitada”.

La posición incómoda de Palantir, que apuesta por ambos lados

La otra mitad del memorando revela la historia de Palantir, la mayor empresa de análisis de datos militares en EE. UU., valorada en aproximadamente 350 mil millones de dólares.

Palantir no desarrolla modelos ni chips; funciona como una especie de OpenClaw exclusivo para el gobierno, actuando como una capa intermedia que conecta grandes modelos como Claude y GPT en herramientas de chat y flujos de trabajo. Palantir integra modelos de IA en los sistemas confidenciales militares, permitiendo que estos lean inteligencia, realicen análisis y reconozcan objetivos. El 54% de sus ingresos proviene del gobierno, y el 74% de su facturación total en EE. UU. proviene del mercado militar. No es una simple colaboración con el Pentágono, sino una relación de simbiosis.

A finales de 2024, Anthropic, a través de Palantir, accedió a la red confidencial del Pentágono, y Claude se convirtió en el primer modelo de IA desplegado en sistemas militares secretos. En julio de 2025, el Pentágono otorgó a Anthropic un contrato de 200 millones de dólares. Palantir, responsable de operar el sistema Maven (el principal proyecto de IA del Pentágono para fusionar inteligencia y reconocimiento de objetivos), tenía un límite de contrato de 1.3 mil millones de dólares. Los seis comandos militares y la OTAN usan Claude en sus operaciones.

Luego, comenzaron los problemas. En enero de 2026, durante la operación para capturar al presidente venezolano Maduro, Claude participó en análisis de inteligencia a través de la plataforma de Palantir. Después, Anthropic preguntó a Palantir si Claude había sido utilizado en la fase de fuego. Palantir reportó la duda al Pentágono. La autoridad militar consideró que esto era una revisión posterior de las operaciones militares por parte del proveedor de IA, y la relación se fracturó irremediablemente.

En un momento clave de las negociaciones entre Anthropic y el Pentágono, Palantir hizo algo que agravó la situación: ofreció al Pentágono un sistema propio de “clasificadores” de seguridad, afirmando que podía usar aprendizaje automático para determinar automáticamente si cada uso de Claude cruzaba límites. En otras palabras, Palantir quería dar la impresión de que, aunque Anthropic no firmara contratos sin restricciones, ellos mismos podían controlar el modelo. Este sistema en realidad le dio al Pentágono una excusa para justificar la exclusión de Anthropic: si Palantir podía controlar el modelo, las cláusulas de seguridad de Anthropic eran innecesarias.

Dario desmenuzó este plan en su memorando, diciendo que “aproximadamente el 20% es real, el 80% es solo para lucir”. Argumentó que: el modelo no puede determinar si está en un ciclo de armas autónomas; no sabe si los datos analizados provienen del extranjero o de ciudadanos estadounidenses; no sabe si los datos fueron obtenidos con consentimiento o comprados por canales grises; y que los ataques de jailbreak son frecuentes y fáciles de realizar. Palantir no pudo responder ninguna de estas cuatro cuestiones.

Dario afirmó que la verdadera percepción de Palantir sobre la postura de Anthropic era: “Tienen empleados descontentos y necesitan darles algo para calmarse”.

El 3 de marzo, el CEO de Palantir, Alex Karp, en la cumbre de tecnología de defensa en Washington organizada por Andreessen Horowitz, sin mencionar nombres, criticó: “Si Silicon Valley piensa que puede quitarle todos los trabajos de oficina y además engañar al ejército, está mal de la cabeza”. Todos saben a quién se refería. Pero no mencionó que la empresa “no cooperativa” en su plataforma es precisamente su proveedor de IA más importante.

Palantir vendió al Pentágono una capa de seguridad de IA en la que el modelo que corre es Claude de Anthropic, y el CEO de Anthropic dice que esa capa de seguridad es solo para lucir. Palantir encontró una excusa para sacar a Anthropic del sistema, pero después de hacerlo, la mayor perjudicada fue Palantir misma.

Desmontar el motor es más doloroso de lo que se imagina

Al leer esto, uno pensaría: ¿No basta con cambiar el modelo base por GPT de OpenAI o Grok de xAI? Como cambiar el modelo predeterminado en OpenClaw, ¿no?

No tan simple. Reuters citó a dos fuentes informadas que afirmaron que en Maven hay una gran cantidad de prompts y flujos de trabajo diseñados específicamente para Claude. No es solo cambiar una dirección API. Los prompts, las cadenas de trabajo, los formatos de salida y los procesos de auditoría de seguridad están ajustados al comportamiento de Claude. Cambiar el modelo implica reconstruir y probar un proceso completo para análisis de inteligencia militar y reconocimiento de objetivos. Las fuentes dicen que Palantir necesita “reconstruir parte del software”.

El contrato de Maven tiene un límite de 1.3 mil millones de dólares hasta 2029, y su despliegue abarca los seis comandos militares y la OTAN. La Agencia de Inteligencia Geoespacial de EE. UU. planea que en junio de 2026 Maven comience a transmitir inteligencia “100% generada por máquina” a los comandantes en el campo. Pero ahora que hay que cambiar el motor, esa fecha probablemente se retrasará. El analista de Wall Street, Piper Sandler, afirmó que Anthropic ya está profundamente integrada en el sistema militar y de inteligencia, y que “la integración y negociación de tecnologías alternativas requiere tiempo y recursos, que podrían haberse utilizado en oportunidades de crecimiento”.

El famoso short de Palantir, Michael Burry, inspirado en la película “La gran apuesta”, añadió: “El período de transición de seis meses indica que la lealtad a la tecnología de Claude no está en la plataforma de Palantir. Si Claude fuera tan fácil de cambiar como en OpenClaw, ¿para qué dar un período de transición de seis meses al Pentágono?”

A los ojos de Wall Street, esto no importa. Tras la censura de Anthropic, la boutique de inversión en tecnología Rosenblatt elevó el precio objetivo de Palantir de 150 a 200 dólares, y UBS también mejoró su calificación. El 4 de marzo, las acciones de Palantir subieron un 3.28%. En ese mismo período, entre el 20 de febrero y el 3 de marzo, el CEO Karp y el cofundador Peter Thiel vendieron más de 400 millones de dólares en acciones de Palantir. Los analistas recomiendan comprar, los fundadores están vendiendo.

Justo el día en que se filtró el memorando, las cosas dieron un giro.

El 4 de marzo, Dario afirmó en la conferencia de tecnología de Morgan Stanley que Anthropic está “intentando enfriar las cosas con el Pentágono y llegar a un acuerdo que funcione para ambos”. Dijo que Anthropic y el Pentágono “tienen mucho más en común que diferencias”. Fuentes informadas revelaron que, en los cinco días de bloqueo, los altos ejecutivos de Anthropic ya habían expresado en privado su pesar por la forma en que se había manejado la comunicación.

Pero la filtración del memorando podría complicar aún más las cosas. Axios reportó que funcionarios de la Casa Blanca creen que los ataques de Dario en el memorando contra el gobierno de Trump “podrían arruinar la oportunidad de una reconciliación”. Una fuente oficial dijo: “No se puede confiar en que Claude no esté ejecutando en secreto la agenda personal de Dario en entornos confidenciales”.

Curiosamente, OpenAI también está ayudando. Altman, al firmar el contrato con el Pentágono, solicitó activamente que el gobierno “ofreciera las mismas cláusulas a Anthropic” y expresó públicamente su oposición a incluir a Anthropic en la “cadena de suministro de riesgos”. Dijo que esa era una “decisión muy mala”.

El Pentágono tiene 48 horas para decidir sobre Anthropic. La separación del motor de Palantir lleva más de una semana, y ahora ambas partes han vuelto a negociar.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado