As discussões públicas sobre IA generativa sempre se basearam em dois tipos de evidência: estatísticas macro do mercado e registros de uso e comportamento em nível de produto. O primeiro avança lentamente e tem dificuldade para captar mecanismos no nível das funções, enquanto o segundo é autêntico, mas frequentemente não revela “como as pessoas interpretam sua própria realidade”.

Fonte da imagem: Relatório oficial da Anthropic
Em abril de 2026, a Anthropic publicou “O que 81.000 pessoas nos disseram sobre a economia da IA”. O valor desse relatório não está em apresentar uma “resposta definitiva”, mas em conectar dois tipos centrais de informação:
Historicamente, as discussões pendiam para o macro (taxas de emprego, crescimento do mercado) ou para a experiência do usuário (“sinto que estou mais rápido”). Este relatório une os dois, mudando o debate de “opinião versus opinião” para uma síntese de “dados mais percepção”.

O relatório identifica uma relação clara: quanto maior a exposição observada à IA em uma profissão, maior a probabilidade de os participantes expressarem preocupação de que seus empregos possam ser substituídos.
Isso indica que a ansiedade de muitos não é infundada, mas está atrelada ao alcance tecnológico de suas funções. Se um cargo já possui várias tarefas centrais que a IA pode auxiliar ou substituir parcialmente, quem ocupa essa posição tende a se preocupar mais com mudanças futuras — reflexo de uma percepção racional de risco.
O relatório aponta que, entre as amostras com estágio de carreira identificável, profissionais em início de carreira apresentam preocupações mais acentuadas.
Esse cenário está alinhado com as observações do mercado de trabalho em 2026, como a intensificação da pressão sobre o emprego dos jovens.
Por que isso ocorre mais entre quem está em início de carreira?
Apesar de parecer contraditório, esse ponto é relevante:
Alguns relatam que “a IA aumentou significativamente minha velocidade”, mas também expressam maior insegurança quanto ao emprego.
A lógica é direta:
Ao perceber na prática que a eficiência do trabalho pode ser ampliada drasticamente, a consciência de que o mesmo resultado pode exigir menos pessoas aumenta.
Muitos presumem que o valor da IA está apenas em “ser mais rápido”. No entanto, o relatório destaca outra dimensão, potencialmente mais relevante: “expansão de escopo”.
A expansão de escopo aparece frequentemente no relatório.
Isso significa que a IA não é apenas uma ferramenta de eficiência — é um multiplicador de capacidades.
Esse é um dos pontos mais negligenciados nas discussões atuais.
Muitos relatórios enfatizam:
“A eficiência dos funcionários aumentou, então a tecnologia é inclusiva.”
Na prática, porém, o ganho de eficiência responde apenas à pergunta “quanto a produção mudou”, não “como os retornos são distribuídos”.
O relatório também traz relatos de participantes dizendo:
Após o uso da IA, supervisores e clientes esperam “mais, mais rápido”.
Isso explica por que muitos relatam estar “mais eficientes” e “mais ansiosos” ao mesmo tempo.
Com base nos materiais do Índice Econômico da Anthropic de 2026 (incluindo os relatórios de janeiro e março e a estrutura da pesquisa), as conclusões mais confiáveis no momento são:
Esta pesquisa utilizou respostas abertas e classificação por modelo, não um questionário estruturado.
É uma referência valiosa, mas serve melhor para “identificar tendências e hipóteses” do que para conclusões definitivas.
Para avançar além do debate, as conclusões devem ser traduzidas em ações concretas.
Acompanhe ambas as categorias de métricas:
Evite fazer apenas uma coisa:
Não implemente apenas ferramentas sem ajustar cargos e mecanismos de treinamento.
Caso contrário, a eficiência de curto prazo pode aumentar, mas a estabilidade organizacional de longo prazo pode ser comprometida.
Priorize três direções:
Se grupos em início de carreira são mais sensíveis, o apoio público deve ser mais proativo:
Este estudo, com base em 81.000 amostras, demonstra que o impacto econômico da IA envolve pelo menos duas dimensões que precisam ser avaliadas em paralelo: ganhos de eficiência em nível de tarefa e mudanças nas expectativas de trabalho e na distribuição de retornos dos trabalhadores. Focar apenas na primeira leva à superestimação da inclusão; definir risco apenas pela segunda subestima os ganhos reais de ampliação de capacidades.
Uma estrutura analítica robusta deve reconhecer que melhoria de produtividade e incerteza no emprego podem coexistir, com heterogeneidade significativa conforme exposição ao trabalho, estágio de carreira e gestão organizacional. Por isso, o foco das discussões futuras deve migrar de “adotar ou não IA” para “como otimizar mecanismos de distribuição, mitigar custos de transição e garantir mobilidade de carreira sustentável enquanto se aumenta a produção”.
Após 2026, o centro da pesquisa econômica e da governança em IA não está em buscar uma resposta única, mas em construir um sistema abrangente de avaliação que acompanhe simultaneamente eficiência, distribuição e estabilidade no emprego.





