El 13 de marzo, Jinshi Data informó que anoche, Sundar Pichai, CEO de Google (GOOG.O), anunció el último modelo grande multimodal GEM Gemma-3 de código abierto, que se centra en un rendimiento alto a bajo costo. Gemma-3 tiene cuatro configuraciones de parámetros: 1 mil millones, 4 mil millones, 12 mil millones y 27 mil millones. Incluso con los 27 mil millones de parámetros más grandes, solo se necesita una H100 para inferir de manera eficiente, lo que requiere al menos diez veces menos potencia computacional que modelos similares y es el modelo de menor parámetro más poderoso actualmente. Según los datos de LMSYS ChatbotArena, Gemma-3 está justo detrás de DeepSeek’s R1-671B, por encima de o3-mini de OpenAI, Llama3-405B y otros modelos conocidos.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.