Anthropic CEO Amodei filtra memorando interno, señalando que las declaraciones del CEO de OpenAI, Altman, son “una mentira total”, mientras las dos grandes empresas de IA se enfrentan directamente en temas de contratos militares.
(Resumen previo: ¿Sam Altman es un villano? Anthropic, que acaba de ser bloqueada por el Pentágono, cambia de postura y apoya a OpenAI para obtener contratos con el Departamento de Defensa de EE. UU.)
(Información adicional: The Wall Street Journal revela que Trump utilizó a Claude AI para localizar a Khamenei en Irán, y OpenAI ha tomado el control total de los sistemas del Pentágono.)
Índice del artículo
Toggle
1
Un memorando interno escrito por Dario Amodei, CEO de Anthropic, se filtró, en el que acusa directamente a Sam Altman, CEO de OpenAI, de mentir “totalmente” y califica las últimas negociaciones con el Pentágono como un “show de seguridad”.
Las dos empresas de IA más influyentes del mundo están en una confrontación total sobre un tema que podría definir el rumbo de la IA en la próxima década.
El conflicto comenzó con el contrato militar de 200 millones de dólares que Anthropic tenía originalmente. A través de su colaboración con Palantir, Claude AI de Anthropic ya está desplegado en redes militares confidenciales.
Pero a finales de febrero, la situación cambió drásticamente: el Pentágono envió una última advertencia a Anthropic: eliminar todas las restricciones de uso de IA y permitir acceso ilimitado para “cualquier uso legal”, o de lo contrario, terminarían el contrato antes del 27 de febrero y pondrían a la empresa en una lista negra.
Amodei, CEO de Anthropic, rechazó públicamente, afirmando que “no puede aceptar con conciencia tranquila” esas condiciones, y defendió dos líneas rojas inquebrantables:
Lectura adicional: ¡Trump quiere bloquear completamente a Anthropic! Rechaza modificar las “restricciones de asesinato” de Claude
La represalia fue rápida y feroz. Horas después de que Anthropic rechazara, el gobierno de Trump incluyó a la empresa en la categoría de “riesgo en la cadena de suministro” (una etiqueta que suele usarse contra actores extranjeros hostiles), bloqueándola prácticamente de todos los contratos federales, y calificándola de “extrema izquierda, activistas despiertos y riesgo para la seguridad nacional”.
El 28 de febrero, solo horas después de que Anthropic fuera bloqueada, Altman anunció que OpenAI había llegado a un acuerdo con el Departamento de Defensa. En su blog oficial, afirmaron que el contrato incluye las mismas “líneas rojas” que Anthropic: restricciones en armas autónomas, vigilancia masiva interna y decisiones automatizadas críticas.
Pero los detalles revelan la diferencia: el contrato de OpenAI permite “todo uso legal”, mientras que Anthropic insiste en una prohibición explícita. OpenAI explicó: “En nuestras interacciones, el Departamento de Defensa dejó claro que la vigilancia masiva interna es ilegal y no tienen ese plan.”
Los críticos señalaron de inmediato el problema: las leyes cambian. Lo que hoy se considera ilegal, mañana puede ser permitido, haciendo que la protección basada en “uso legal” sea fundamentalmente frágil.
En el memorando filtrado, Amodei evalúa la batalla de la opinión pública con franqueza:
Creo que intentar manipular la opinión pública de esta manera no funciona con la gente ni con los medios; la mayoría piensa que la negociación con el Departamento de Defensa de OpenAI es sospechosa, y que nosotros somos los héroes.
También atacó directamente las motivaciones de Altman:
La principal razón por la que ellos aceptaron y nosotros rechazamos, es que a ellos les importa calmar a los empleados, mientras que a nosotros realmente nos preocupa evitar abusos.
Según TechCrunch, Amodei acusó a Altman de “disfrazarse de pacificador y negociador experto”. Frente a las críticas masivas, Altman admitió en una reunión general que la decisión tendría graves consecuencias para la marca, pero defendió que era una decisión difícil pero correcta para la seguridad nacional.
A medida que la situación se intensifica, los usuarios están reaccionando en la práctica. Recientemente, las descargas de ChatGPT de OpenAI se dispararon; al mismo tiempo, las descargas de Claude de Anthropic aumentaron significativamente.
Anthropic decidió rechazar y asumir las consecuencias, perdiendo contratos federales y relaciones con el gobierno; OpenAI optó por colaborar con límites, sacrificando la confianza de los usuarios y la reputación de la marca. Ambas opciones tienen su lógica, pero también sus costos.
Lo que realmente preocupa es que esta disputa revela un problema más profundo: en una era en la que la IA se militariza rápidamente, la distancia entre lo “legal” y lo “correcto” se está ampliando.