Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Anthropic presenta una demanda formal contra el gobierno de Trump en oposición a que el Pentágono lo incluya en la lista negra
La startup de inteligencia artificial Anthropic presentó una demanda formal contra el gobierno de Trump el lunes, después de que la compañía fuera incluida en una lista negra y etiquetada como una amenaza para la seguridad nacional de Estados Unidos.
En la demanda presentada ante la Corte Federal del Distrito de California, Anthropic afirmó que estas acciones son “sin precedentes e ilegales” y están “causando daños irreparables a Anthropic”.
La demanda señala que el contrato de Anthropic con el gobierno federal ha sido cancelado. Los contratos actuales y futuros con entidades privadas también están en incertidumbre, lo que podría poner en riesgo cientos de millones de dólares en ingresos a corto plazo.
Además de estas pérdidas económicas directas, la reputación de Anthropic y sus derechos fundamentales bajo la Primera Enmienda también están siendo atacados. Si la corte no proporciona remedios judiciales, estos daños podrían ampliarse en las próximas semanas y meses.
Esta demanda es el último desarrollo en una disputa intensa que ha durado dos semanas entre Anthropic y el gobierno de Trump. La controversia gira principalmente en torno al uso de los modelos de IA de la compañía en escenarios de combate y otros contextos.
Antes de que esta disputa se hiciera pública a finales del mes pasado, Anthropic había sido un socio importante en las primeras etapas del gobierno de Estados Unidos.
El modelo de IA de Anthropic, Claude, ha sido integrado profundamente en el Departamento de Defensa durante el último año. Hasta hace poco, Claude era el único modelo de IA aprobado para su uso en sistemas confidenciales. Se informa que el Departamento de Defensa utilizó ampliamente esta tecnología en sus operaciones militares, incluyendo decisiones sobre objetivos de ataques con misiles en la guerra contra Irán.
El jueves pasado, Anthropic confirmó que la compañía había sido oficialmente identificada como un “riesgo en la cadena de suministro”. Esta medida, muy rara, generalmente solo se aplica a empresas adversarias extranjeras.
Según esta clasificación, los contratistas y proveedores de defensa de EE. UU. que colaboran con el Pentágono deben demostrar que sus sistemas no utilizan los modelos de IA de Anthropic.
El mes pasado, Trump también publicó en redes sociales exigiendo que las agencias federales “detengan inmediatamente” el uso de la tecnología de Anthropic. “Decidiremos el destino de este país, no algunas empresas de IA radicales y descontroladas. Esos tipos no entienden nada del mundo real.”
Anthropic ha solicitado a la corte que anule la clasificación de riesgo en la cadena de suministro y que emita una orden judicial temporal que suspenda la ejecución de esta medida durante el proceso legal.
En julio de 2025, Anthropic firmó un contrato de 200 millones de dólares con el Departamento de Defensa de EE. UU., convirtiéndose en el primer laboratorio de IA en desplegar tecnología en las redes confidenciales del Departamento.
Sin embargo, posteriormente, las negociaciones para la renovación del contrato se estancaron, principalmente por diferencias sobre el alcance del uso de los modelos de IA.
El Departamento de Defensa considera que las fuerzas armadas deben poder usar la tecnología en “todos los usos legales” sin restricciones impuestas por los proveedores. Si los proveedores intentan limitar los usos legales para afectar la cadena de mando militar, esto podría poner en peligro la seguridad de los operadores.
Por ello, el Departamento de Defensa desea que Anthropic otorgue acceso ilimitado a sus modelos de IA para todos los usos legales, mientras que Anthropic busca garantías de que sus modelos no serán utilizados en sistemas de armas completamente autónomas ni en vigilancia masiva en EE. UU.
Un portavoz de Anthropic declaró el lunes: “Buscar revisión judicial no cambia nuestro compromiso de usar la IA para mantener la seguridad nacional, pero es un paso necesario para proteger nuestro negocio, clientes y socios. Continuaremos buscando soluciones por todos los medios, incluyendo diálogos con el gobierno.”
(Artículo original: 财联社)