Las discusiones públicas sobre la IA generativa han dependido tradicionalmente de dos tipos de evidencia: estadísticas macro del sector y registros de uso y comportamiento a nivel de producto. Las primeras se actualizan lentamente y no logran captar los mecanismos a nivel de puesto, mientras que las segundas son auténticas pero suelen carecer de la perspectiva de “cómo interpretan las personas su propia situación”.

Fuente de la imagen: Anthropic Official Report
En abril de 2026, Anthropic publicó “Lo que 81 000 personas nos contaron sobre la economía de la IA”. El valor de este informe no está en dar una “respuesta final”, sino en conectar dos tipos clave de información:
Históricamente, los debates han tendido a lo macro (tasas de empleo, crecimiento del sector) o se han centrado en la experiencia de usuario (“me siento más rápido”). Este informe une ambas perspectivas, pasando del “opinión contra opinión” a una síntesis de “datos más percepción”.

El informe identifica una relación clara: cuanto mayor es la exposición observada a la IA en una profesión, más probable es que los encuestados expresen preocupación por la posibilidad de que sus empleos sean reemplazados.
Esto indica que la ansiedad de muchas personas no es infundada, sino que está relacionada con el alcance tecnológico de sus funciones. Si un puesto ya tiene varias tareas principales que la IA puede apoyar o reemplazar parcialmente, quienes ocupan ese puesto tienden a preocuparse más por cambios futuros, reflejando una conciencia racional del riesgo.
El informe señala que, entre las muestras con etapa profesional identificable, los trabajadores en etapas iniciales presentan inquietudes más pronunciadas.
Esto coincide con las observaciones del mercado laboral de 2026, como el aumento de la presión sobre el empleo juvenil.
¿Por qué ocurre esto con más frecuencia en los grupos en etapas iniciales?
Aunque parezca contradictorio, esto es relevante:
Algunos que afirman que “la IA ha incrementado significativamente mi velocidad” también expresan mayor inseguridad laboral.
La lógica es sencilla:
Al ver que la eficiencia puede aumentar radicalmente, se percibe con mayor claridad si para el mismo resultado se necesita el mismo número de personas.
Muchos suponen que el valor de la IA es simplemente “ser más rápido”. Sin embargo, este informe resalta otra dimensión, quizás más importante: la “expansión del alcance”.
La expansión del alcance es un tema recurrente en el informe.
Esto significa que la IA no es solo una herramienta de eficiencia, sino un multiplicador de capacidades.
Este es uno de los puntos más ignorados en los debates actuales.
Muchos informes destacan:
“La eficiencia de los empleados ha aumentado, por lo tanto, la tecnología es inclusiva.”
Sin embargo, en realidad, la eficiencia solo responde a “cuánto ha cambiado la producción”, no a “cómo se distribuyen los beneficios”.
El informe también recoge que los encuestados afirman:
Después de usar IA, supervisores y clientes esperan “más, más rápido”.
Esto explica por qué muchas personas reportan ser “más eficientes” y a la vez “más ansiosas”.
A partir de los materiales del Índice Económico de Anthropic de 2026 (incluidos los informes de enero y marzo y el framework de encuestas), las conclusiones más fiables actualmente son:
Esta encuesta utilizó respuestas abiertas y clasificación por modelos, no un cuestionario estructurado estrictamente.
Es muy valiosa como referencia, pero resulta más útil para “identificar tendencias e hipótesis” que como “conclusión definitiva”.
Para avanzar, las conclusiones deben convertirse en acciones.
Supervisa ambas categorías de métricas:
Evita hacer solo una cosa:
No implementes herramientas sin ajustar el diseño de los puestos y los mecanismos de formación.
De lo contrario, la eficiencia puede aumentar a corto plazo, pero la estabilidad organizacional a largo plazo puede verse comprometida.
Prioriza tres líneas de acción:
Si los grupos en etapas iniciales son más sensibles, el apoyo público debe ser más proactivo:
Este estudio, basado en 81 000 muestras, demuestra que el impacto económico de la IA abarca al menos dos dimensiones que deben evaluarse en paralelo: las mejoras de eficiencia a nivel de tarea y los cambios en las expectativas laborales y la distribución de beneficios. Centrarse solo en la primera conlleva el riesgo de sobreestimar la inclusividad; definir el riesgo solo por la segunda subestima los verdaderos avances en la ampliación de capacidades.
Un framework analítico sólido debe reconocer que la mejora de la productividad y la incertidumbre laboral pueden coexistir, con una heterogeneidad significativa según la exposición laboral, la etapa profesional y la gestión organizacional. Por ello, el foco de los debates futuros debe pasar de “si adoptar IA” a “cómo optimizar los mecanismos de distribución, mitigar los costes de transición y garantizar la movilidad profesional sostenible mientras se incrementa la producción”.
Tras 2026, el núcleo de la investigación y la gobernanza económica de la IA no es buscar una única conclusión, sino construir un sistema de evaluación integral que permita supervisar la eficiencia, la distribución y la estabilidad laboral de forma simultánea.





