Mensaje de Gate News, 29 de abril — Los investigadores de OpenAI Sébastien Bubeck y Ernest Ryu afirman que los sistemas de IA podrían realizar la mayor parte del trabajo de investigación humano en dos años, presentando las matemáticas como una medida clara del progreso de la IA. A diferencia de las pruebas de rendimiento vagas, los problemas matemáticos ofrecen una verificación precisa: las respuestas son correctas o incorrectas, sin dejar margen para la ambigüedad.
Bubeck señaló que el verdadero pensamiento de la IA requiere sobrevivir a largas cadenas de razonamiento. Un solo error en un argumento de varios pasos derrumba toda la demostración, por lo que la detección y corrección de errores a mitad del proceso es el objetivo definitivo para los modelos avanzados. Los laboratorios internos de OpenAI ya han generado más de diez teoremas completamente nuevos publicables en revistas de combinatoria de primer nivel, demostrando que la IA ahora produce trabajo genuinamente original y rompedor, más allá de simplemente recombinar artículos existentes.
Sin embargo, los avances científicos sostenidos exigen un enfoque constante durante semanas de pruebas. Los sistemas actuales todavía requieren una supervisión humana estricta para guiar y verificar cada cambio de dirección. Bubeck usa “tiempo de AGI” para medir cuánto tiempo un modelo puede imitar de forma independiente el pensamiento humano; los sistemas actuales operan aproximadamente de días a una semana, y el objetivo de la industria es lograr semanas o meses para permitir trabajo autónomo en campos como la biología.
La memoria a largo plazo es fundamental para este futuro. Las ventanas de chat estándar limitan la profundidad: las demostraciones matemáticas complejas a menudo superan 50 páginas, mientras que los repositorios de código muestran cómo las sesiones de trabajo prolongadas permiten una resolución de problemas más profunda. A medida que la IA gane independencia y memoria, la experiencia humana se vuelve más valiosa, no menos. Los trabajadores deben conservar el conocimiento profundo y básico para desafiar y verificar las respuestas de las máquinas, y las organizaciones necesitarán nuevos filtros automatizados y sistemas de reputación para mantener la confianza ante una avalancha de investigación asistida por IA.
Artículos relacionados
La plataforma de IA Certifyde recauda $2M en financiación semilla con el CEO de Ripple, Brad Garlinghouse
DeepSeek Lanza Función de Reconocimiento de Imágenes en Pruebas Beta
Anthropic Lanza 8 Conectores de Herramientas Creativas para Claude, Incluyendo Blender, Adobe, Autodesk
La Casa Blanca elude la evaluación de riesgos del Pentágono para implementar el modelo Mythos de Anthropic el 29 de abril
Cognizant para adquirir Astreya por $600M para ampliar el negocio de infraestructura de IA
30 plugins maliciosos en ClawHub disfrazados de herramientas de IA, descargados más de 9.800 veces