Los seis cambios que transformaron la IA en 2025: de RLVR a Nano Banana

A lo largo de 2025, la industria de la inteligencia artificial experimentó una serie de transformaciones fundamentales que alteraron no solo la forma en que se entrenan los sistemas de IA, sino también cómo se despliegan, perciben e integran en los flujos de trabajo humanos. Lo que comenzó como innovaciones técnicas en laboratorios de investigación se convirtió en cambios de paradigma que redefinieron todo el ecosistema de la IA. Estas seis transformaciones, según el análisis del destacado investigador de IA Andrej Karpathy, representan mucho más que mejoras incrementales: señalan la aparición de una nueva era de la computación.

Cambio 1: Recompensas verificables reemplazan el juicio humano en el entrenamiento de modelos

Durante años, la línea de entrenamiento estándar para grandes modelos de lenguaje seguía una secuencia predecible: preentrenamiento similar a GPT-2/3, seguido de ajuste fino supervisado (eco de InstructGPT de 2022), culminando con aprendizaje por refuerzo a partir de retroalimentación humana (RLHF). Este enfoque de tres etapas se había convertido en el estándar de la industria, perfeccionado y probado en batalla en los principales laboratorios de IA.

Para 2025, esta pila de producción sufrió su revisión más significativa en años. El Aprendizaje por Refuerzo basado en Recompensas Verificables (RLVR) emergió como el paradigma dominante, cambiando fundamentalmente cómo los modelos desarrollan capacidades de razonamiento. En lugar de depender de anotadores humanos para calificar las salidas, RLVR entrena modelos en entornos donde el éxito puede ser verificado objetivamente—soluciones a problemas matemáticos, tareas de programación, cadenas de razonamiento lógico—entornos donde una respuesta correcta es inequívoca.

Este cambio se manifestó de manera más visible a través de modelos como el o1 de OpenAI (revelado a finales de 2024) y el lanzamiento emblemático de o3 a principios de 2025. Estos sistemas no solo respondían más rápido o con mayor fluidez; demostraban la capacidad de construir espontáneamente cadenas de razonamiento, descomponiendo problemas complejos en pasos intermedios y refinando soluciones de forma iterativa mediante lo que se asemeja a una deliberación humana. El documento DeepSeek-R1 proporcionó evidencia transparente de cómo esta metodología de entrenamiento permite a los modelos descubrir estrategias sofisticadas de resolución de problemas que los enfoques supervisados nunca podrían desbloquear.

Las implicaciones computacionales resultaron asombrosas. A diferencia de las fases tradicionales de ajuste fino que consumen recursos modestos, RLVR requiere ciclos de optimización extensos—absorbendo presupuestos computacionales originalmente destinados a la expansión del preentrenamiento. Las principales organizaciones de IA asumieron estas demandas extraordinarias, aceptando plazos de entrenamiento más largos a cambio de un rendimiento del modelo sustancialmente superior. Una innovación secundaria surgió de este cambio: una nueva dimensión de escalado. En lugar de medir la capacidad únicamente por el tamaño del modelo, los laboratorios descubrieron que podían modular el rendimiento durante la inferencia controlando el “tiempo de pensamiento” computacional—generando trayectorias de razonamiento más largas que se correlacionan directamente con la calidad de la salida.

Cambio 2: Entender la inteligencia de IA como fundamentalmente alienígena

Por primera vez en 2025, la comunidad de investigación en IA comenzó a desarrollar un marco maduro para entender la inteligencia artificial en sus propios términos, en lugar de a través de analogías biológicas. El error conceptual predominante había sido tratar a los grandes modelos de lenguaje como criaturas que deben “evolucionar y criar”, cuando la realidad resultaba mucho más alienígena.

La distinción se cristalizó en torno a una idea central: las redes neuronales humanas, optimizadas durante milenios para la supervivencia tribal en entornos selváticos, no se parecen en nada a los objetivos de optimización de los sistemas de IA. Mientras los humanos internalizan patrones para la navegación social y la supervivencia física, los grandes modelos de lenguaje se entrenan para imitar textos humanos, maximizar recompensas en resolución de problemas matemáticos y navegar mecanismos de retroalimentación basados en aprobación. Estas funciones objetivo fundamentalmente diferentes producen entidades cuya inteligencia exhibe características imposibles en contextos biológicos.

Este reconocimiento llevó a lo que podría denominarse “Inteligencia Fantasmal” frente a “Inteligencia en Forma de Diente de Sierra de Animal”—una distinción poética que captura el paisaje de capacidades escarpado e impredecible. Los grandes modelos de lenguaje no desarrollan una competencia que aumente de forma suave en todos los dominios como los animales. En cambio, muestran caídas drásticas en capacidades verificables (matemáticas, código), permaneciendo desconcertantemente incompetentes en otros. Podrían funcionar simultáneamente como autoridades eruditas y como estudiantes de primaria confundidos, potencialmente vulnerables a la extracción de información bajo presión adversarial.

Las implicaciones para la evaluación comparativa resultaron particularmente problemáticas. Dado que los benchmarks representan entornos verificables, se vuelven objetivos irresistibles para la optimización basada en RLVR. Los equipos de IA descubrieron que podían diseñar conjuntos de datos de entrenamiento en los espacios de incrustación estrechos que rodean los casos de prueba de los benchmarks, “cubriendo” efectivamente las métricas de evaluación con mejoras localizadas en capacidades. La verdad incómoda emergió: los benchmarks actuales ya no miden inteligencia artificial general; miden qué tan exhaustivamente se han optimizado los sistemas contra conjuntos de pruebas específicos.

Cambio 3: Cursor revela la capa oculta de las aplicaciones de IA

Entre los desarrollos más subestimados de 2025 estuvo el explosivo auge de Cursor y la claridad conceptual que proporcionó respecto a la arquitectura de aplicaciones. La innovación no fue principalmente técnica; fue organizacional. A medida que las discusiones en la industria cada vez más enmarcaban las oportunidades en torno a “Cursor para X dominio”, se hizo evidente una capa previamente invisible.

En esta visión emergente, los grandes modelos de lenguaje funcionan como componentes generalistas que requieren una orquestación sustancial. Las aplicaciones exitosas como Cursor no solo envuelven llamadas a API en interfaces de usuario; son sistemas de coordinación sofisticados que superponen múltiples funciones sobre las capacidades brutas del modelo. Estas aplicaciones sobresalen en ingeniería de contexto—analizando documentos específicos del dominio, entornos de usuario e historiales de problemas para construir prompts ricos en información. Orquestan secuencias complejas de llamadas a modelos de lenguaje en gráficos acíclicos dirigidos cada vez más sofisticados, equilibrando la calidad del rendimiento con el coste computacional. Mantienen mecanismos de retroalimentación con humanos en el ciclo donde expertos en el dominio permanecen involucrados con las salidas del sistema.

Quizá lo más innovador sea que las aplicaciones exitosas implementan deslizadores de ajuste autónomo—mecanismos que permiten a los usuarios intercambiar niveles de automatización, coste y calidad de salida en tiempo real. La arquitectura que emergió posiciona a las plataformas de modelos de lenguaje grandes—las APIs mismas—como cultivadores de capacidades generalistas, mientras que las capas de aplicación se convierten en los especialistas que integran estos generalistas en flujos de trabajo profesionales, adaptados a dominios verticales específicos.

Cambio 4: Los agentes de IA vuelven a entornos de ejecución locales

La aparición de Claude Code cristalizó un debate crítico dentro de la comunidad de agentes de IA: ¿dónde deberían ejecutarse realmente los sistemas inteligentes? OpenAI había perseguido ampliamente el despliegue en la nube, diseñando entornos sofisticados y contenedorizados orquestados a través de la infraestructura de backend de ChatGPT. La atracción teórica era obvia—los clústeres de agentes en la nube parecían representar la forma definitiva de inteligencia artificial general.

Sin embargo, Claude Code demostró una visión contraria: el despliegue local podría ser en realidad la estrategia superior a corto plazo. La lógica resultó pragmática más que filosófica. Los sistemas de IA actuales muestran un desarrollo de capacidades desigual; ciertos dominios funcionan extraordinariamente bien, mientras otros quedan rezagados. El progreso hacia una inteligencia artificial general completa sigue siendo lento. En estas condiciones, desplegar agentes directamente en máquinas locales, profundamente integrados con los entornos de trabajo y datos privados de los desarrolladores, permite una colaboración con IA más práctica.

El avance particular de Claude Code residió en su elegancia. En lugar de manifestarse como otra interfaz web que requiere autenticación y cambio de contexto, se implementó como una herramienta de línea de comandos ligera e íntima que convierte a la IA en una entidad computacional persistente—un “sprite” o “fantasma” que reside directamente en el espacio de trabajo del desarrollador. Esto representa un paradigma de interacción humano-IA completamente reconfigurado, desplazando a la IA de ser un servicio externo (como acceder a la web de Google) a ser una presencia computacional ambiental integrada sin problemas en los flujos de trabajo existentes.

Cambio 5: Vibe Coding democratiza el desarrollo de software

Para 2025, la inteligencia artificial cruzó un umbral de capacidad crítico que reestructuró fundamentalmente el panorama de la programación. La aparición de “Vibe Coding”—programar mediante descripciones en inglés sin requerir conocimientos profundos de implementación de código—resultó transformadora tanto conceptualmente como en la práctica.

El fenómeno contradice los patrones previos de difusión tecnológica. Históricamente, las tecnologías poderosas nuevas proporcionaban ventajas desproporcionadas a profesionales capacitados, empresas y gobiernos. Los grandes modelos de lenguaje invirtieron esta dinámica. La gente común—aquellos sin conocimientos especializados en programación—capturaron más valor de la IA que cualquier otro grupo demográfico. Vibe Coding aceleró esta democratización al eliminar por completo el requisito de conocimientos técnicos.

Pero al mismo tiempo, Vibe Coding empoderó paradójicamente a desarrolladores profesionales para realizar trabajos que “nunca habrían sido implementados de otra forma”. Las restricciones se transformaron: los desarrolladores pudieron prototipar ideas experimentales a casi cero coste, implementar herramientas especializadas para vulnerabilidades específicas usando código desechable, o construir utilidades personalizadas en lenguajes que nunca estudiaron formalmente. El autor utilizó Vibe Coding para desarrollar tokenizadores BPE sofisticados en Rust sin conocimientos tradicionales de lenguajes ni dependencias de librerías—trabajo que en eras anteriores habría tomado semanas, pero que con ayuda de IA consumió horas.

De manera más profunda, este cambio señala que el desarrollo de software está migrando de un dominio profesional especializado a un medio computacional democratizado. Las fronteras profesionales se difuminan cuando cualquiera puede generar código funcional mediante lenguaje natural. La dinámica fundamental del ecosistema de software cambia cuando el código pasa de ser una propiedad intelectual escasa y valiosa a un material abundante, desechable y maleable.

Cambio 6: La revolución de la interfaz gráfica en la interacción con IA

El Gemini Nano de Google, coloquialmente conocido en círculos de IA como “Nano Banana”, emergió como quizás la innovación más disruptiva de 2025—una que va mucho más allá de las capacidades de generación de imágenes. Este desarrollo refleja una verdad mayor: los grandes modelos de lenguaje representan el próximo paradigma fundamental de la computación tras la revolución de las microcomputadoras de los años 70 y 80.

El precedente histórico resulta instructivo. Cuando la computación pasó de terminales y interfaces de línea de comandos a computadoras personales, el cambio revolucionario no fue la potencia de procesamiento, sino la modalidad de interacción. Los primeros sistemas obligaban a los usuarios a ingresar comandos de texto para realizar tareas. La interfaz gráfica (GUI) reinventó esta relación, reconociendo que, aunque el texto representa la forma de datos más primitiva para las computadoras, es la menos preferida por los humanos para la entrada de información. Los humanos no disfrutan leer texto; es cognitivamente costoso e ineficiente en tiempo. La información visual y espacial se alinea mucho más naturalmente con la percepción humana.

Actualmente, los grandes modelos de lenguaje operan dentro de una limitación estructuralmente idéntica: están fundamentalmente restringidos a la interacción basada en texto. El texto representa el medio computacional más básico, pero también el más ajeno a la preferencia humana. Los futuros sistemas de IA deberían comunicarse mediante modalidades preferidas por los humanos—imágenes, infografías, diapositivas, pizarras, animaciones, videos, aplicaciones web y visualizaciones interactivas.

Las implementaciones tempranas han surgido mediante adaptaciones superficiales: formato Markdown, emojis decorativos, énfasis tipográfico. Pero estas siguen siendo soluciones fundamentalmente centradas en el texto. El avance de Nano Banana demuestra algo cualitativamente diferente—una integración sofisticada de generación de texto, síntesis de imágenes y conocimiento del mundo embebido que permite una comunicación multimodal integral. Su verdadero avance no se basa únicamente en capacidades de imagen; surge de la síntesis coordinada de múltiples modalidades de salida integradas en respuestas unificadas que reflejan cómo los humanos prefieren recibir información de forma natural.

Este cambio señala la dirección de la evolución de las interfaces de IA. En los próximos años, deberíamos esperar que los sistemas de IA pasen de “chatear con un sitio web de IA” a entornos de comunicación ricamente interactivos y visuales—reimaginando fundamentalmente la interacción humano-IA de maneras que recuerdan cómo las GUIs transformaron la interacción humano-computadora décadas atrás.

El futuro convergente

Estos seis cambios—desde el entrenamiento basado en verificación de RLVR hasta las interfaces multimodales de Nano Banana—no representan innovaciones aisladas. Son transformaciones interconectadas que en conjunto indican la evolución de la IA desde un dominio de aplicación estrecho hacia un paradigma de computación integral. RLVR habilita modelos con razonamiento complejo; el marco de formas de inteligencia previene optimizaciones equivocadas; capas de aplicación como Cursor orquestan capacidades; el despliegue local hace que la IA sea íntima y práctica; Vibe Coding democratiza la implementación; y las interfaces gráficas rehumanizan la interacción.

A lo largo de 2025, la industria de la IA no solo mejoró enfoques existentes. Reestructuró fundamentalmente cómo se entrenan, despliegan, comprenden y experimentan los modelos. Estos cambios seguirán reverberando en 2026 y más allá, moldeando un ecosistema de IA que cada vez será más irreconocible en comparación con principios de la década de 2020. La próxima era de la computación no está llegando—ya está aquí, visible a través de estos seis cambios de paradigma transformadores.

SIX-1,05%
IN-2,94%
NANO0,53%
BANANA-0,84%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)