_ Vitalik Buterin de Ethereum apoya a Anthropic mientras el Pentágono amenaza con restringir el acceso a Claude por límites en armas autónomas y vigilancia masiva. _
El Pentágono quiere a Claude. Sin límites. Sin excepciones. Y Anthropic tiene hasta el viernes para decidir.
El Departamento de Defensa entregó a Dario Amodei, CEO de Anthropic, una fecha límite estricta, según The Guardian. El secretario de Defensa, Pete Hegseth, se reunió con ejecutivos de Anthropic el martes. El mensaje fue claro. Cumplir o enfrentar consecuencias.
Axios informó primero que el DoD amenazó con invocar la Ley de Producción de Defensa. También sugirió etiquetar a Anthropic como un “riesgo en la cadena de suministro” si la compañía se niega a dar acceso sin restricciones a Claude para fin de semana.
Lectura obligatoria: Vitalik revela la nueva visión DeFi de Ethereum: sin permisos, privada, segura
El cofundador de Ethereum, Vitalik Buterin, intervino públicamente en la disputa. Publicó su postura en X, etiquetando directamente a Dario Amodei. Buterin dijo que su opinión sobre Anthropic “aumentaría significativamente” si la compañía mantiene su postura y “honrosamente asume las consecuencias.”
Su publicación calificó la posición actual de Anthropic como “muy conservadora y limitada.” La compañía ha establecido dos líneas rojas. Sin armas completamente autónomas. Sin vigilancia masiva de estadounidenses. Peroerin afirmó que esas restricciones ni siquiera son anti-militar por naturaleza.
Como escribió Vitalik Buterin en X, su opinión es que las armas totalmente autónomas y las violaciones masivas de privacidad son cosas “de las que todos queremos menos.” Añadió que en un mundo ideal, cualquiera que trabaje en esos programas accedería a los mismos modelos de pesos abiertos que todos los demás, y nada más. Reconoció que ese ideal nunca se alcanzará, pero que incluso acercarse un 10% sería significativo.
El DoD firmó acuerdos con Anthropic, Google y OpenAI en julio del año pasado. Esos contratos alcanzaron hasta 200 millones de dólares cada uno. Hasta esta semana, Claude era el único modelo de IA autorizado para su uso en sistemas militares clasificados. Eso cambió el lunes. El Pentágono firmó un nuevo acuerdo que permite que el chatbot xAI de Elon Musk ingrese en sistemas clasificados.
Tanto xAI como OpenAI supuestamente aceptaron los términos del gobierno. Un funcionario de defensa dijo que OpenAI permitió su modelo para “todos los propósitos legales.” OpenAI no hizo comentarios de inmediato.
El director de tecnología del Pentágono, Emil Michael, ha instado públicamente a Anthropic a actuar. Como dijo Michael a Defense Scoop, esas limitaciones “deberían ajustarse” para casos de uso gubernamentales, siempre que sean legales. Lo calificó como “cruzar la Rubicón.”
Esta disputa se enmarca en una tensión política más larga. Anthropic apoyó un PAC que abogaba por reglas más estrictas de seguridad en IA. Amodei se opuso a Trump durante la campaña de 2024. La compañía contrató exfuncionarios de Biden. Un fondo de capital de riesgo pro-Trump retiró una inversión en Anthropic a principios de este año por esas mismas conexiones, informó The Wall Street Journal.
El DoD ha invertido miles de millones en tecnología militar habilitada por IA. Drones no tripulados. Sistemas de ataque automatizados. El conflicto en Ucrania mostró hacia dónde conduce esto. Drones semiautónomos ya operan sin control humano en campos de batalla reales. Estos debates dejaron de ser teóricos.
Firefly Social también salió a la luz, citando a Axios sobre la amenaza de la Ley de Producción de Defensa. La ultimátum es real.
También vale la pena revisar: OpenClaw prohíbe toda conversación sobre criptomonedas en su Discord
El viernes es la fecha límite. Anthropic no ha retrocedido públicamente. Pero la publicación de Buterin en X sigue en pie.
Artículos relacionados
El oro gana como refugio seguro mientras las criptomonedas tropiezan
¡Ayuda en la reconstrucción económica postguerra! Trump crea el "Comité de Paz" para diseñar una "stablecoin en dólares" para Gaza
Vitalik Buterin apoya a la compañía de IA Anthropic en su resistencia a los requisitos del uso de tecnología militar por parte de la Casa Blanca
CEO de OpenAI: los humanos desperdician más recursos y tienen menos valor que la IA, declaraciones en contra de la humanidad enfurecen a los usuarios