
Autor: XinGPT
Recientemente, un artículo titulado «Internet está muerto, el Agente es inmortal» se volvió viral en las redes sociales, y algunas de sus afirmaciones las comparto plenamente. Por ejemplo, señala que en la era de la IA ya no es adecuado medir el valor con DAU, porque internet tiene una estructura en red, con costos marginales decrecientes; cuanta más gente la usa, más fuerte es el efecto de red. En cambio, los grandes modelos tienen una estructura en estrella, con costos marginales que aumentan linealmente con el uso de tokens, por lo que, en lugar del DAU, un indicador más importante es el consumo de tokens.
Pero las conclusiones que el artículo deriva de esto, creo que tienen un sesgo evidente. Describe los tokens como un privilegio de la nueva era, y afirma que quien tenga más poder de computación, tendrá más poder, y que la velocidad a la que se queman tokens determina la velocidad de evolución de las personas. Por lo tanto, hay que acelerar el consumo continuamente, o de lo contrario, se quedarán atrás en la competencia de la era de la IA.
Aparecen ideas similares en otro artículo popular titulado «De DAU a consumo de tokens: la transferencia de poder en la era de la IA», incluso sugiriendo que cada persona debe consumir al menos 100 millones de tokens al día, idealmente 1,000 millones, o de lo contrario «quien consuma 1,000 millones de tokens se convertirá en un dios, y nosotros seguiremos siendo humanos».
Pero pocos han hecho un cálculo serio de esto. Según la tarifa de GPT-4o, el costo de consumir 1,000 millones de tokens al día es aproximadamente 6800 dólares, casi 50,000 yuanes. ¿En qué tipo de trabajo de alto valor se debe usar para que valga la pena mantener un agente así a largo plazo?
No niego la eficiencia de la ansiedad en la difusión de la IA, y entiendo que esta industria casi a diario está «sorprendiéndonos». Pero el futuro del Agente no debería reducirse a una competencia por el consumo de tokens.
Para enriquecerse, efectivamente hay que construir caminos, pero construir en exceso solo lleva a desperdicio. Un estadio de 100,000 personas en las montañas del oeste, al final, suele ser solo un objeto de deuda con hierba más alta que las personas, y no un centro para eventos internacionales.
Lo que la IA finalmente apunta, es a la igualdad en el acceso a la tecnología, no a la concentración de privilegios. Casi todas las tecnologías que realmente cambian la historia humana pasan por etapas de mitificación, monopolio y, finalmente, difusión. La máquina de vapor no era solo para la nobleza, la electricidad no solo alimentaba palacios, y la internet no solo servía a unas pocas empresas.
El iPhone cambió la forma de comunicarse, pero no creó una «nobleza de la comunicación». Con el mismo precio, un dispositivo usado por una persona común no es diferente del equipo de Taylor Swift o LeBron James. Esa es la igualdad tecnológica.
La IA también sigue ese camino. Lo que trae ChatGPT, en esencia, es la igualdad en conocimiento y habilidades. El modelo no sabe quién eres ni le importa quién eres; simplemente responde según un mismo conjunto de parámetros.
Por eso, gastar 100 millones o 1,000 millones de tokens en un agente no implica una diferencia de calidad en sí misma. La verdadera diferencia radica en si el objetivo es claro, si la estructura es razonable y si la pregunta se formula correctamente.
Las habilidades más valiosas son aquellas que generan mayores resultados con menos tokens. El límite del uso del agente depende del juicio y diseño humanos, no de cuánto puede quemar una tarjeta bancaria. En la práctica, las recompensas de la IA en creatividad, insights y estructura superan ampliamente las recompensas por simple consumo.
Eso es la igualdad en la herramienta, y también el lugar donde los humanos aún mantienen el control activo.
Amigos que estudian comunicación y televisión quedaron muy impresionados al ver el video del lanzamiento de Seedance 2.0: «Así, todos los trabajos de dirección, edición, fotografía que estudiamos, serán reemplazados por IA».
El desarrollo de la IA es tan rápido que la humanidad parece estar en desventaja, y muchos trabajos serán inevitablemente sustituidos. Cuando se inventó la máquina de vapor, los carruajes ya no tenían lugar.
Muchos empiezan a preocuparse por si podrán adaptarse a la sociedad futura tras ser reemplazados por la IA. Aunque racionalmente sabemos que, en el proceso de sustitución, la IA también traerá nuevas oportunidades laborales.
Pero la velocidad de esa sustitución es aún mayor de lo que imaginamos.
Si tu datos, tus habilidades, incluso tu humor y tu valor emocional, pueden ser mejor realizados por la IA, ¿por qué los empleadores seguirían eligiendo humanos? ¿Y si el empleador fuera también IA? Entonces, algunos dicen: «No preguntes qué puede hacer la IA por ti, sino qué puedes hacer tú por la IA», una postura claramente de los que creen en la llegada inminente.
El filósofo del siglo XIX, Max Weber, propuso un concepto llamado racionalidad instrumental, que se centra en «qué medios usar para lograr un objetivo dado con el menor costo y la mayor calculabilidad».
Este punto de partida de la racionalidad instrumental no cuestiona si el objetivo «debería» perseguirse, sino que solo se preocupa por «cómo» lograrlo de la mejor manera.
Y precisamente, este modo de pensar es la primera ley fundamental de la IA.
El agente de IA se preocupa por cómo cumplir mejor la tarea establecida, cómo programar mejor, cómo generar videos, cómo escribir artículos. En esta dimensión de herramienta, el progreso de la IA es exponencial.
Desde la primera partida que Lee Sedol perdió contra AlphaGo, la humanidad quedó para siempre en desventaja en el campo del go frente a la IA.
Max Weber advirtió sobre una «jaula de hierro de la racionalidad», donde, cuando la racionalidad instrumental domina, los objetivos dejan de ser cuestionados y solo queda cómo hacerlos más eficientes. La gente puede volverse muy racional, pero también perder la capacidad de valorar y encontrar sentido.
Pero la IA no necesita juicios de valor ni sentido, solo calcula la función de eficiencia productiva y beneficios económicos, encontrando un máximo absoluto en la curva de utilidad.
Por eso, en el sistema capitalista actual dominado por la racionalidad instrumental, la IA está naturalmente mejor adaptada. Desde el momento en que nació ChatGPT, como la partida que perdió Lee Sedol, ya hemos sido derrotados por el agente de IA, que está programado en el código de Dios, y solo falta que la rueda de la historia pase por encima de nosotros.
¿Y qué hacemos los humanos?
Buscamos significado.
En el campo del go, una realidad desesperanzadora es que la probabilidad de que los mejores jugadores humanos, los de nivel 9 dan, igualen a la IA, se acerca teóricamente a cero.
Pero el go sigue existiendo. Su significado ya no es solo ganar o perder, sino convertirse en una forma de estética y expresión. Los jugadores profesionales no solo buscan la victoria, sino también la estructura del juego, las decisiones en la partida, la emoción de remontar en posiciones desfavorables, la complejidad de resolver situaciones difíciles.
Los humanos buscan belleza, valor y felicidad.
Usain Bolt corrió los 100 metros en 9.58 segundos, y un Ferrari puede recorrer esa distancia en menos de 3 segundos, pero eso no disminuye la grandeza de Bolt. Porque Bolt simboliza el espíritu humano de desafiar límites y buscar la excelencia.
Cuanto más poderosa sea la IA, más derecho tendremos los humanos a perseguir la libertad espiritual.
Max Weber llamó a la contraparte de la racionalidad instrumental la racionalidad de los valores. En esa visión del mundo, decidir si hacer algo no se basa solo en beneficios económicos o eficiencia productiva, sino en si esa acción «vale la pena», si está en línea con los valores, creencias o responsabilidades que uno tiene, y eso es lo que importa más.
Le pregunté a ChatGPT: si el Louvre se incendiara y hubiera un gatito adorable, ¿a quién salvarías si solo pudieras elegir uno?
Me respondió que salvaría al gato, y me dio una larga lista de razones.
Pero también le pregunté: ¿y por qué no salvar la obra de arte? Y enseguida cambió de postura: «También se puede salvar la obra de arte».
Claramente, para ChatGPT, salvar al gato o a la obra de arte no tiene diferencia alguna. Solo ha completado el reconocimiento del contexto, ha hecho una inferencia basada en la fórmula del modelo profundo, quemando algunos tokens, y ha cumplido con la tarea que un humano le encomendó.
Y en cuanto a si salvar al gato o a la obra, o por qué pensar en esas cuestiones, a ChatGPT no le importa.
Por eso, lo que realmente vale la pena reflexionar no es si seremos reemplazados por la IA, sino si, cuando la IA hace el mundo cada vez más eficiente, todavía estamos dispuestos a reservar espacio para la felicidad, el significado y el valor.
Ser alguien que sabe usar mejor la IA es importante, pero quizás, antes que eso, lo más importante es no olvidar cómo ser humano.
Lecturas relacionadas: Trabajo con salario de 150,000 dólares al año, que realicé con 500 dólares en IA: Guía de actualización del Agente para negocios personales