Google Lanza Chips de IA Separados para Entrenamiento e Inferencia, Aumentando el Rendimiento 2.8x

Mensaje de Gate News, 23 de abril — Google anunció el 22 de abril que lanzará más adelante este año chips TPU de octava generación separados para entrenamiento e inferencia, reemplazando su diseño combinado anterior. La medida se dirige a cargas de trabajo de agentes de IA y ofrece a los clientes de Google Cloud una alternativa al hardware de Nvidia.

El chip de entrenamiento ofrece 2.8 veces el rendimiento del TPU Ironwood de séptima generación de Google al mismo precio, mientras que el chip de inferencia es 80% más rápido y cuenta con 384 MB de SRAM, el triple de la cantidad en Ironwood. La separación de las capacidades de entrenamiento e inferencia refleja un cambio en la forma en que las empresas optimizan para diferentes demandas computacionales.

La iniciativa está respaldada por una asociación a largo plazo con Broadcom y Anthropic. Anthropic planea utilizar aproximadamente 3.5 gigavatios de cómputo de TPU a través de Broadcom a partir de 2027, y Broadcom se encargará de la fabricación de chips y de los componentes de redes hasta 2031. Anthropic, la startup de IA detrás de Claude, ha visto que sus ingresos anualizados superan recientemente $30 mil millones. Mientras tanto, Apple, Microsoft, Meta y Amazon también están ampliando sus esfuerzos de chips de IA personalizados para reducir la dependencia de Nvidia, que sigue siendo el líder del mercado.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Perplexity 披露网络搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本上优于 GPT-5.4

Perplexity 使用 Qwen3.5 模型进行 SFT,随后使用带有 RL 的训练流程,借助多跳 QA 数据集和评分标准检查来提升搜索准确性与效率,实现了同类最佳的 FRAMES 表现。 摘要:Perplexity 的用于网络搜索代理的后训练工作流,将监督微调 (SFT) 与通过 GRPO 算法的在线强化学习 (RL) 结合在一起。监督微调用于强化指令遵循和语言一致性;强化学习阶段则用于进一步优化。RL 阶段使用专有的多跳可验证问答数据集以及基于评分标准的对话数据,以防止 SFT 漂移,并采用奖励门控以及组内效率惩罚。评估显示 Qwen3.5-397B-SFT-RL 在 FRAMES 上达到顶级表现:单次工具调用准确率 57.3%,四次调用准确率 73.9%,成本为每次查询 $0.02,在这些指标上优于 GPT-5.4 与 Claude Sonnet 4.6。定价基于 API,并不包含缓存。

GateNewsHace9m

TikTok elimina más de 538.000 videos no autorizados generados por IA; múltiples plataformas lanzan iniciativas de gobernanza

Mensaje de Gate News, 23 de abril — TikTok anunció una aplicación integral contra el contenido generado por IA que infringe los derechos de los usuarios, revelando que ha eliminado más de 538.000 videos y ha sancionado a más de 4.000 cuentas hasta la fecha. La plataforma dará prioridad a la aplicación contra deepfakes de IA, clonación de voz

GateNewsHace47m

Las finanzas tradicionales acelerarán la entrada al mercado cripto, dice el economista Fu Peng

Mensaje de Gate News, 23 de abril — Fu Peng, economista jefe de Xinfire Group, compartió su perspectiva sobre la convergencia de las finanzas tradicionales y los criptoactivos durante la Cumbre de 2026 sobre Gestión Institucional de Patrimonio Digital en Hong Kong. Según Fu, la integración de las instituciones financieras tradicionales con el

GateNewsHace59m

OpenAI Codex Team Fixes OpenClaw Authentication Bug, Significantly Improves Agent Behavior

OpenClaw switches from Pi to Codex harness to fix a silent authentication fallback, with two PRs addressing the bridge and fallback; post-fix, the agent shifts from shallow heartbeat polling to a full work loop, enabling progress. Abstract: OpenClaw’s Codex harness optimization addressed a critical authentication flaw that caused silent fallback to the Pi harness when using Codex with OpenAI models. Two pull requests fix the authentication bridge and prevent silent fallback, changing the runtime adapter. As a result, agent behavior evolves from shallow heartbeat polling to a full work loop that reads context, analyzes tasks, edits repositories, and verifies progress, improving continuity and visibility across heartbeats.

GateNewshace1h

Modelos de ciberseguridad de nivel armamentístico de Anthropic Mythos accedidos sin autorización: ¿cómo lo lograron?

Bloomberg informó que, mediante una autorización legal de un tercer contratista de Anthropic, un grupo privado de foro obtuvo acceso no autorizado a Mythos. Mythos es una IA defensiva para empresas, que solo se ofrece a grandes organizaciones con un riguroso proceso de revisión. El grupo utilizó el control que tenía sobre la URL del modelo para inferir la ubicación del sistema y acceder, y proporcionó capturas de pantalla como demostración, afirmando que todavía estaba en uso pero que no había malas intenciones. Anthropic está investigando y, de forma preliminar, considera que se trata de un abuso de permisos en lugar de una intrusión externa. Este caso pone de manifiesto el riesgo de confiar modelos de alta sensibilidad a la gestión de terceros, y se requiere mejorar la resiliencia de la gobernanza y los mecanismos de confianza.

ChainNewsAbmediahace1h

Moomoo? CISO? Alerta: ShinyHunters afirma haber comprometido los sistemas internos de Anthropic

Según una alerta publicada en la plataforma X el 23 de abril por el CISO de SlowMist, 23pds, el grupo de hackers ShinyHunters afirma haber comprometido sistemas internos relacionados con el modelo Anthropic Mythos y ha compartido públicamente capturas de evidencia, como el panel de gestión de usuarios, el panel de experimentos de IA y análisis del rendimiento del modelo y sus costos; sin embargo, Anthropic aún no ha emitido un comunicado oficial.

MarketWhisperhace1h
Comentar
0/400
Sin comentarios