Escrito por: Ada, Deep Tide TechFlow
Pang Ruiming aún no había calentado su puesto en Meta cuando se fue.
En julio de 2025, Zuckerberg le arrebató a Apple a uno de los ingenieros chinos más codiciados en infraestructura de IA, con un plan de compensación de más de 200 millones de dólares a largo plazo. Pang fue asignado al Laboratorio de Inteligencia Artificial Súper de Meta, encargado de construir la infraestructura para el próximo modelo de IA.
A los 7 meses, OpenAI lo reclutó.
Según The Information, OpenAI lanzó una campaña de reclutamiento durante meses. Aunque Pang le dijo a sus colegas que “trabajar en Meta era muy agradable”, finalmente decidió irse. Bloomberg reportó que su plan de compensación en Meta estaba ligado a hitos, y renunciar anticipadamente significaba renunciar a la mayor parte de las acciones no realizadas.
200 millones de dólares, no compran 7 meses de lealtad.
No es solo una historia de cambio de trabajo.
Pang no fue el primero en irse.
La semana pasada, Mat Velloso, responsable del producto de la plataforma de desarrolladores del Laboratorio de IA de Meta, también anunció su salida. El año pasado, en julio, dejó Google DeepMind para unirse a Meta, y estuvo menos de 8 meses. Antes, en noviembre de 2025, Yann LeCun, ganador del Premio Turing y jefe de ciencia de IA en Meta durante 12 años, anunció su salida para emprender, promoviendo su “modelo del mundo”. También, Russ Salakhutdinov, vicepresidente de investigación en IA generativa en Meta y discípulo de LeCun, anunció recientemente su partida.
Para entender la fuga de talento en Meta AI, primero hay que comprender cuánto daño hizo Llama 4.
En abril de 2025, Meta lanzó con bombo y platillo la serie Llama 4, con modelos Scout y Maverick. Los datos oficiales en papel eran impresionantes, afirmando que en benchmarks clave como MATH-500 y GPQA Diamond, superaban ampliamente a GPT-4.5 y Claude Sonnet 3.7.
Pero, en pruebas independientes de la comunidad de código abierto, este modelo insignia de Meta mostró rápidamente su verdadera cara, con una capacidad de generalización y razonamiento muy por debajo de lo prometido. Frente a las fuertes dudas, LeCun admitió que el equipo usó diferentes versiones del modelo en distintas pruebas para optimizar la puntuación final.
En la comunidad académica y de ingeniería de IA, esto tocó una línea roja imperdonable. En otras palabras, el equipo entrenó a Llama 4 como un “estudiante que solo hace los exámenes del año pasado”, en lugar de un “destacado en inteligencia de vanguardia”. Si solo quieres mostrar matemáticas, te enseñan a resolver exámenes de matemáticas; si quieres demostrar habilidades de programación, te muestran exámenes de programación. Cada prueba parece fuerte, pero en realidad no es el mismo modelo.
En la academia de IA, esto se llama “cosechar cerezas”; en la educación basada en exámenes, “hacer trampa”.
Para Meta, que siempre se ha considerado una “farola de código abierto”, esta controversia destruyó la confianza más valiosa en su ecosistema de desarrolladores. El costo directo fue que Zuckerberg perdió la confianza en la línea de base de ingeniería del equipo de GenAI, lo que llevó a una serie de nombramientos de ejecutivos externos y a la sustitución de departamentos clave.
Gastó entre 14.3 y 15 mil millones de dólares en adquirir el 49% de Scale AI, y colocó a su CEO, Alexandr Wang, de 28 años, como director de IA en Meta, creando el Laboratorio de Inteligencia Artificial Súper de Meta (MSL). LeCun, ganador del Premio Turing, ahora debe reportar a este joven de 28 años. En octubre, Meta eliminó unos 600 puestos en MSL, incluyendo miembros del departamento FAIR, fundado por LeCun.
El modelo insignia Llama 4 Behemoth, planeado para verano de 2025, fue retrasado varias veces, de verano a otoño, y finalmente puesto en espera indefinida.
Meta desarrolló en cambio un modelo de texto llamado “Avocado” y un modelo de imagen/video llamado “Mango”. Se reporta que Avocado apunta a competir con GPT-5 y Gemini 3 Ultra. Originalmente debía entregarse a finales de 2025, pero por no cumplir con pruebas de rendimiento y optimización, se retrasó hasta el primer trimestre de 2026. Meta considera lanzarlo cerrado, abandonando la tradición de código abierto de la serie Llama.
Meta cometió dos errores fatales en sus modelos de IA: primero, falsificar benchmarks, lo que destruyó la confianza de la comunidad; segundo, intentar meter departamentos de investigación básica como FAIR en una organización de productos que persigue KPIs trimestrales. Estas dos cosas explican la fuga de talento actual.
El talento corre, pero también hay problemas con los chips.
Según The Information, Meta canceló la semana pasada su proyecto interno de chips de entrenamiento de IA más avanzados.
El plan de chips propios de Meta se llama MTIA (Meta Training and Inference Accelerator). La hoja de ruta inicial era ambiciosa: las versiones v4 “Santa Barbara”, v5 “Olympus” y v6 “Universal Core” debían entregarse entre 2026 y 2028. Olympus sería el primer chip de Meta basado en arquitectura de chiplet de 2 nm, diseñado para cubrir entrenamiento de modelos de alta gama y razonamiento en tiempo real, con la intención de reemplazar a Nvidia en los clústeres de entrenamiento de Meta.
Pero, este chip de entrenamiento más avanzado fue cancelado.
Meta sí ha avanzado en el lado de inferencia. La versión “Iris” de MTIA v3 ya se despliega en los centros de datos de Meta, principalmente para Facebook Reels e Instagram, reduciendo los costos totales en un 40-44%. Pero inferencia y entrenamiento son cosas distintas. La inferencia ejecuta modelos, el entrenamiento los crea. Meta puede hacer sus propios chips de inferencia, pero no puede fabricar chips de entrenamiento que compitan con Nvidia.
Esto no es la primera vez. En 2022, Meta intentó hacer sus propios chips de inferencia, pero fracasó en despliegues a pequeña escala y abandonó, comprando grandes pedidos a Nvidia.
El fracaso en chips propios aceleró la tendencia de compra externa de Meta.
En enero de 2026, Meta anunció un presupuesto de inversión de entre 115 y 135 mil millones de dólares, casi el doble de los 72.2 mil millones del año anterior. La mayor parte de ese dinero se destinará a chips.
En 10 días, se concretaron tres grandes pedidos:
El 17 de febrero, Meta firmó un acuerdo estratégico plurianual con Nvidia, para desplegar “millones” de GPUs Blackwell y la nueva Vera Rubin, además de CPUs Grace. Se estima que la operación alcanza varios cientos de miles de millones de dólares, y Meta se convirtió en la primera supercomputadora en desplegar a gran escala CPUs Grace de Nvidia.
El 24 de febrero, Meta firmó un acuerdo con AMD por entre 600 y 1000 millones de dólares, para comprar GPUs MI450 y CPUs EPYC de sexta generación. Como parte del acuerdo, AMD emitió warrants por hasta 160 millones de acciones ordinarias, aproximadamente el 10% de AMD, a un precio de 0.01 dólares por acción, con entregas según hitos.
El 26 de febrero, según The Information, Meta firmó un acuerdo multianual por varios miles de millones con Google, para alquilar sus chips TPU para entrenar y ejecutar su próximo gran modelo de lenguaje. Además, discuten que desde 2027 Meta compre directamente TPU para desplegar en sus propios centros de datos.
Una sola compañía de redes sociales hizo pedidos a tres proveedores diferentes en 10 días, por un valor potencial superior a los 100 mil millones de dólares.
No es diversificación. Es compra por pánico.
¿Por qué Meta está tan apurada?
Primero, la autosuficiencia en chips ya no es viable. La cancelación del proyecto de chips de entrenamiento más avanzado significa que Meta, en el futuro cercano, solo podrá depender de compras externas para entrenamiento de IA. La inferencia con MTIA puede manejar tareas como recomendaciones, pero para entrenar modelos de vanguardia como Avocado, necesita hardware de nivel Nvidia o similar.
Segundo, los competidores no esperan. OpenAI ya tiene recursos de Microsoft, SoftBank y fondos soberanos de Emiratos Árabes. Anthropic tiene 1 millón de TPU y Trainium de Google y Amazon. Gemini 3 de Google se entrena completamente en TPU. Si Meta no obtiene suficiente potencia, ni siquiera podrá entrar en la carrera.
Tercero, y quizás lo más importante, Zuckerberg necesita usar su “poder de compra” para compensar la falta de “poder de investigación y desarrollo”. La caída de Llama 4, la fuga de talento clave y el fracaso en chips propios hacen que la narrativa de IA de Meta sea vulnerable en Wall Street. Firmar grandes pedidos con Nvidia, AMD y Google envía una señal: tenemos dinero, estamos comprando, no nos rendimos.
La estrategia actual de Meta es: si no puede con el software, invierte en hardware; si no puede retener talento, compra chips. Pero la carrera de IA no se gana solo con cheques. La potencia de cálculo es necesaria, no suficiente. Sin un equipo de modelos de élite y una hoja de ruta clara, más chips solo serán costosos inventarios en un almacén.
Al revisar las tres transacciones de febrero, un detalle interesante que la mayoría pasa por alto.
Meta compra a Nvidia los GPUs Blackwell actuales y futuros Vera Rubin; con AMD, adquiere los MI450 y futuros MI455X; y alquila a Google los TPU actuales, con planes de comprar en 2027.
Los tres proveedores usan arquitecturas y ecosistemas de software completamente diferentes.
Esto significa que Meta tendrá que saltar entre CUDA de Nvidia, ROCm de AMD y XLA/JAX de Google. La estrategia de múltiples proveedores puede reducir riesgos y precios, pero aumenta exponencialmente la complejidad de ingeniería.
Este es el talón de Aquiles actual de Meta: hacer que un modelo de 1000 billones de parámetros se entrene eficientemente en estas tres plataformas distintas requiere no solo ingenieros que entiendan CUDA, sino arquitectos capaces de construir frameworks multiplataforma desde cero.
Esas personas probablemente no superen las 100 en todo el mundo. Pang Ruiming es uno de ellos.
Invertir 100 mil millones en hardware complejo y, al mismo tiempo, perder la capacidad de gestionar esas tecnologías, es la escena más surrealista en esta apuesta de Zuckerberg.
Mirando más allá, la estrategia de Zuckerberg en los últimos 18 meses en IA es sorprendentemente similar a su apuesta total en el metaverso:
Ver la tendencia, invertir mucho, contratar en masa, enfrentar fracasos, cambiar de estrategia rápidamente y volver a invertir.
De 2021 a 2023 fue el era del metaverso, con pérdidas anuales de cientos de millones, y el precio de la acción cayó de 380 a 88 dólares. De 2024 a 2026, es la era de la IA, con inversiones sin límites, reorganizaciones frecuentes y una narrativa de “confíen en mí, tengo visión”.
Lo que cambia es que esta vez, la ola de IA es mucho más concreta que el metaverso. Meta tiene dinero para gastar, y su negocio de publicidad genera flujo de caja abundante: en el cuarto trimestre de 2025, sus ingresos fueron 59.9 mil millones de dólares, un 24% más que el año anterior.
El problema es que: el dinero puede comprar chips, potencia de cálculo e incluso talento en las oficinas, pero no puede comprar a las personas que se queden.
Pang eligió OpenAI, Russ Salakhutdinov se fue, LeCun emprendió.
La apuesta de Zuckerberg ahora es que, si compra suficientes chips, construye centros de datos grandes y gasta mucho dinero, podrá encontrar o formar a quienes puedan aprovechar esos recursos.
Quizá esta apuesta funcione. Meta es una de las empresas tecnológicas más ricas del mundo, con más de 100 mil millones de dólares en flujo de caja operativo, su fortaleza más sólida. Desde OpenAI hasta Anthropic, Google y otros, Meta sigue buscando talento. Según QuantumBit, casi el 40% de los 44 miembros del equipo de IA Súper de Meta provienen de OpenAI.
Pero la cruel realidad de la carrera de IA es que el poder de cálculo, las listas de talento y el rendimiento de los modelos son públicos. La falsificación de benchmarks en Llama 4 demuestra que en esta industria, no basta con PPT y relaciones públicas para mantener la ventaja.
Al final, el mercado solo reconoce una cosa: qué tan bueno es tu modelo.
La carrera armamentística de IA en 2026 ya tiene una clasificación preliminar:
En la cima están OpenAI y Google. OpenAI tiene los modelos más potentes, la base de usuarios más grande y la financiación más agresiva. Google tiene integración vertical completa con chips propios, modelos y nube. Anthropic sigue en segundo plano, con su modelo Claude y el respaldo de Google y Amazon, en la primera línea.
¿Meta? Ha gastado más, firmado más contratos de chips y reorganizado más, pero aún no ha presentado un modelo de vanguardia que convenza al mercado.
La historia de IA de Meta se asemeja a la de Yahoo en 2005. Yahoo también era una de las empresas más ricas en internet, compraba y gastaba mucho, pero no lograba crear un motor de búsqueda como Google. El dinero no lo es todo. Zuckerberg necesita definir qué quiere hacer en IA, en lugar de comprar lo que esté de moda.
Por supuesto, aún es prematuro escribir la necrológica de Meta. Sus 3,58 mil millones de usuarios activos mensuales, sus ingresos trimestrales de 59.9 mil millones y su enorme conjunto de datos sociales son activos que ningún competidor puede copiar fácilmente.
Si el próximo modelo “Avocado” logra entregarse en 2026 y volver a la primera línea, toda la inversión y reorganización de Zuckerberg será vista como una estrategia audaz para revertir la situación. Pero si vuelve a fallar, esos 135 mil millones de dólares solo serán almacenes de silicio caliente y costoso.
Al fin y al cabo, en la carrera armamentística de IA en Silicon Valley, siempre hay compradores con chequera en mano. Lo que falta es saber cómo usar esa potencia para crear el futuro.