Les débats publics sur l’IA générative se sont longtemps appuyés sur deux types de preuves : les statistiques macroéconomiques sectorielles et les journaux d’utilisation et de comportement au niveau des produits. Les premières évoluent lentement et peinent à saisir les mécanismes au niveau des métiers, tandis que les secondes sont authentiques mais manquent souvent de la perspective « comment les individus interprètent-ils leur propre situation ».

Source de l’image : Anthropic Official Report
En avril 2026, Anthropic a publié « What 81,000 People Told Us About the Economics of AI ». L’intérêt de ce rapport ne réside pas dans la recherche d’une « réponse définitive », mais dans la mise en relation de deux types d’informations clés :
Historiquement, les discussions se sont soit concentrées sur l’aspect macro (taux d’emploi, croissance sectorielle), soit sur l’expérience utilisateur (« je me sens plus rapide »). Ce rapport combine les deux, faisant évoluer le débat d’une « opinion contre opinion » vers une synthèse « données et perception ».

Le rapport met en évidence une relation claire : plus l’exposition observée à l’IA dans une profession est forte, plus les répondants expriment des craintes quant au remplacement de leur emploi.
Cela indique que les inquiétudes de nombreux individus ne sont pas infondées, mais liées à la pénétration technologique de leur poste. Si une fonction comporte déjà plusieurs tâches principales que l’IA peut assister ou remplacer partiellement, les personnes concernées sont plus susceptibles de redouter les évolutions à venir, ce qui révèle une prise de risque rationnelle.
Le rapport note que, parmi les échantillons dont le stade de carrière est identifiable, les personnes en début de carrière affichent des inquiétudes plus marquées.
Cela rejoint les observations du marché du travail en 2026, comme la pression accrue sur l’emploi des jeunes.
Pourquoi ce phénomène est-il plus fréquent chez les débutants ?
Bien que contre-intuitif, ce constat est significatif :
Certaines personnes déclarant que « l’IA a considérablement augmenté ma rapidité » expriment également une insécurité professionnelle plus forte.
La logique est simple :
Constater que l’efficacité au travail peut être fortement accrue rend plus attentif à la nécessité ou non du même nombre de personnes pour obtenir le même résultat.
Beaucoup supposent que la valeur de l’IA se résume à « aller plus vite ». Pourtant, ce rapport met en avant une autre dimension, souvent plus importante : « l’élargissement du champ d’action ».
L’élargissement du champ d’action est un thème central du rapport.
Cela signifie que l’IA n’est pas seulement un outil d’efficacité, mais un multiplicateur de capacités.
C’est l’un des points les plus sous-estimés dans les débats actuels.
De nombreux rapports affirment :
« L’efficacité des salariés a augmenté, donc la technologie est inclusive. »
Mais en réalité, les gains d’efficacité répondent à « combien la production a changé », pas à « comment les rendements sont répartis ».
Le rapport cite aussi des répondants :
Après l’adoption de l’IA, responsables et clients attendent « plus, plus vite ».
Cela explique pourquoi nombre de personnes se disent « plus efficaces » mais aussi « plus anxieuses » en même temps.
En s’appuyant sur les matériaux de l’Economic Index d’Anthropic de 2026 (rapports de janvier et mars, cadre d’enquête), les conclusions les plus fiables à ce jour sont :
Cette enquête reposait sur des réponses ouvertes et une classification par modèle, et non sur un questionnaire structuré.
Elle est précieuse comme référence, mais sert surtout à « identifier des tendances et hypothèses » plutôt qu’à tirer une « conclusion définitive ».
Pour dépasser le débat, il faut traduire les conclusions en actions concrètes.
Suivre deux catégories d’indicateurs :
Éviter de se limiter à l’implémentation d’outils sans adapter la conception des postes et les dispositifs de formation.
Sinon, l’efficacité à court terme progresse, mais la stabilité organisationnelle à long terme peut en pâtir.
Prioriser trois axes :
Si les débutants sont plus sensibles, le soutien public doit être plus proactif :
Cette étude, basée sur 81 000 échantillons, prouve que l’impact économique de l’IA comporte au moins deux dimensions à évaluer conjointement : les gains d’efficacité au niveau des tâches et l’évolution des attentes professionnelles ainsi que de la répartition des rendements. Se concentrer sur la première conduit à surestimer l’inclusivité ; définir le risque uniquement par la seconde sous-estime les gains liés à l’élargissement des capacités.
Un cadre d’analyse robuste doit reconnaître que l’amélioration de la productivité et l’incertitude sur l’emploi peuvent coexister, avec de fortes disparités selon l’exposition des postes, le stade de carrière et le management. Les débats futurs devraient donc passer de « faut-il adopter l’IA » à « comment optimiser la répartition, atténuer les coûts de transition et garantir la mobilité professionnelle durable tout en augmentant la production ».
Après 2026, le cœur de la recherche et de la gouvernance économiques de l’IA n’est plus de trancher, mais de bâtir un système d’évaluation global permettant de suivre simultanément efficacité, répartition et stabilité de l’emploi.





