OpenAI, Anthropic y Google inician un mecanismo conjunto para detectar la destilación de IA

AI蒸餾行為

Según informó Bloomberg el 16 de abril, OpenAI, Anthropic PBC y Google han iniciado una colaboración a través del grupo sin fines de lucro del sector Frontier Model Forum, compartiendo información para detectar y detener la conducta de destilación de modelos de IA adversarial que infringe los Términos de Servicio. OpenAI confirmó a Bloomberg que participa en el trabajo de intercambio de información sobre la destilación adversarial.

Marco de colaboración: mecanismo de intercambio de información de Frontier Model Forum

Frontier Model Forum fue creado conjuntamente por OpenAI, Anthropic, Google y Microsoft en 2023. Según informó Bloomberg, las tres compañías intercambian información mediante esta organización con el objetivo de identificar solicitudes masivas de datos adversariales, rastrear intentos de destilación que vulneran los Términos de Servicio y coordinar la detención de las conductas relacionadas. Google publicó anteriormente un artículo en el que señaló que había descubierto que los intentos de extracción de modelos habían aumentado.

Según informó Bloomberg, este tipo de patrón de intercambio de información es coherente con las prácticas existentes en la industria de la ciberseguridad, que durante mucho tiempo ha reforzado la defensa intercambiando datos de ataques entre empresas y estrategias de los adversarios.

Memorando del Congreso de OpenAI y registro de acusaciones relacionadas

De acuerdo con un memorando presentado por OpenAI ante el House Select Committee on China de la Cámara de Representantes de Estados Unidos (febrero de 2026), OpenAI acusa a la empresa china de IA DeepSeek de intentar “aprovecharse” de la tecnología desarrollada por OpenAI y otros laboratorios estadounidenses de vanguardia, y afirma que continúa utilizando técnicas de destilación de datos para extraer resultados de modelos estadounidenses con el fin de desarrollar una nueva versión de un chatbot, y que los métodos que emplea son cada vez más complejos.

Anthropic emitió una declaración en febrero de 2026 en la que identifica tres laboratorios chinos de IA —DeepSeek, Moonshot y MiniMax— y los acusa de extraer ilegalmente las funciones del modelo Claude mediante destilación adversarial. Anteriormente, Anthropic ya había prohibido en 2025 que empresas chinas usaran Claude. Bloomberg también había informado previamente que, después de que DeepSeek publicara el modelo de razonamiento R1 en enero de 2025, Microsoft y OpenAI iniciaron investigaciones sobre si estaba realizando una extracción ilegal de datos de modelos estadounidenses.

Postura del gobierno de Trump y límites de cumplimiento normativo antimonopolio

Según documentos de políticas públicas, funcionarios del gobierno de Trump han manifestado su disposición a promover el intercambio de información entre empresas de IA para hacer frente a las amenazas de la destilación adversarial. El Plan de Acción de Inteligencia Artificial que dio a conocer el presidente Trump exige explícitamente la creación de un centro de intercambio de información y análisis, y parte de su finalidad es precisamente abordar las conductas mencionadas.

Según informó Bloomberg, el alcance del intercambio de información de destilación tecnológica entre estas tres compañías aún es limitado, debido a que no están seguras de qué información puede compartirse de forma conforme a la normativa bajo las directrices antimonopolio vigentes; las tres compañías han declarado que desean ampliar el alcance de la colaboración después de que el gobierno de Estados Unidos establezca de manera clara el marco de directrices correspondiente.

Preguntas frecuentes

¿A través de qué organización se realizó la colaboración entre OpenAI, Anthropic y Google?

Según informó Bloomberg, las tres compañías compartieron información a través de Frontier Model Forum; esta organización fue creada conjuntamente en 2023 por OpenAI, Anthropic, Google y Microsoft, y es una organización sin fines de lucro del sector.

¿Qué presentó OpenAI ante el Congreso de Estados Unidos sobre el problema de la destilación de IA?

De acuerdo con la información pública de OpenAI, OpenAI presentó un memorando (febrero de 2026) ante el House Select Committee on China de la Cámara de Representantes de Estados Unidos, en el que acusa que DeepSeek utiliza técnicas de destilación de datos para extraer continuamente resultados de modelos estadounidenses y, con base en ello, desarrollar una nueva versión de chatbot.

¿Qué acciones públicas tomó Anthropic sobre el problema de destilación de laboratorios chinos de IA?

Según la declaración pública de Anthropic, Anthropic prohibió en 2025 que las empresas chinas usaran el modelo Claude y, en febrero de 2026, identificó tres laboratorios chinos de IA —DeepSeek, Moonshot y MiniMax—, acusándolos de extraer ilegalmente las funciones del modelo Claude mediante destilación adversarial.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

V4-Pro logra una tasa de aprobación de codificación del 67% en pruebas internas de dogfooding, acercándose al rendimiento de Opus 4.5

Mensaje de Gate News, 24 de abril — V4 ha divulgado públicamente datos internos de dogfooding de su modelo V4-Pro. La empresa recopiló aproximadamente 200 tareas de ingeniería del mundo real de más de 50 ingenieros, que abarcan el desarrollo de funciones, correcciones de errores, refactorización y diagnósticos en pilas tecnológicas que incluyen

GateNewsHace15m

Reino Unido pone sus ojos en la IA de Anthropic para reforzar la ciberseguridad bancaria

El Reino Unido está explorando un paso importante en la ciberseguridad financiera trabajando con la empresa de IA Anthropic. Las primeras conversaciones sugieren que el gobierno podría desplegar el avanzado modelo Claude Mythos de Anthropic en bancos e instituciones financieras. Este movimiento tiene como objetivo mejorar las defensas ante las amenazas cibernéticas

CryptometerIoHace19m

La Oficina de PI de China añade IA, semiconductores e interfaces cerebro-computadora al programa de protección acelerada

Mensaje de Gate News, 24 de abril — La Administración Nacional de Propiedad Intelectual de China anunció el 24 de abril que establecerá una protección integral de la propiedad intelectual para tecnologías emergentes mediante reformas institucionales, servicios mejorados y aplicaciones ampliadas. La administración wi

GateNewsHace26m

Almirante Indica que el Gobierno de EE. UU. Opera un Nodo de Bitcoin sin Minería

Un almirante superior ha indicado que el Gobierno de EE. UU. está operando activamente un nodo en la red de Bitcoin, mientras evita deliberadamente participar en actividades de minería. El anuncio sugiere que las autoridades están asumiendo un papel más involucrado en la infraestructura de blockchain para la supervisión y

CryptoFrontierHace42m

Los ingresos del 1T de Tesla suben 16% hasta $22.4B; se planea el debut del robot humanoide para mediados de 2026

Mensaje de Gate News, 24 de abril — Tesla informó unos ingresos del primer trimestre de US$22.4 mil millones el 23 de abril, lo que representa un aumento del 16% interanual. Las entregas globales de vehículos de la compañía superaron las 358,000 unidades, mientras que la producción superó las 408,000 unidades. La Gigafábrica de Tesla en Shanghái entregó 213,000 vehí

GateNewsHace42m
Comentar
0/400
Sin comentarios