Ferramentas de IA generativa estão a penetrar rapidamente nos processos de desenvolvimento e criação, mas quando os sistemas não são estáveis, o impacto é imediato e severo. A Claude AI, desenvolvida pela Anthropic, sofreu interrupções de serviço consecutivas a 2 e 3 de março, provocando reclamações globais dos utilizadores. Segundo dados de monitorização, as denúncias nos EUA ultrapassaram as 4.000 por dia, e plataformas como Reddit e outras comunidades surgiram com muitas dúvidas e críticas.
À medida que o número de utilizadores da Claude dispara e ela lidera as classificações na App Store, estes incidentes de duas falhas em 24 horas fizeram o mercado reavaliar a resiliência e fiabilidade da infraestrutura de IA.
No dia 3 de março, houve nova interrupção, com aumento da taxa de erros e problemas ainda não totalmente resolvidos
A última falha ocorreu às 3:15 UTC de 3 de março (11:15 da manhã, hora de Taiwan). A página de estado oficial da Anthropic indicou múltiplos serviços principais com “elevated errors” (erros elevados), incluindo:
Interface web claude.ai
Claude Code
Cowork
Serviços da plataforma
Até às 6:59 UTC (14:59 de Taiwan), o estado oficial ainda indicava que o problema estava “em investigação” e sem uma resolução completa anunciada.
De acordo com o Downdetector, as denúncias nos EUA atingiram um pico superior a 4.000, e na Índia também surgiram centenas de relatos. Os principais problemas reportados pelos utilizadores foram:
39% falhas na funcionalidade de chat
36% problemas na aplicação
15% dificuldades de conexão ao website
Na primeira interrupção, a 2 de março, as denúncias chegaram perto de 2.000. A menos de 24 horas entre os dois incidentes, a confiança do mercado foi claramente abalada.
Utilizadores do Reddit criticam duramente: “Max pago também está a ser limitado”
Comunidades como r/ClaudeAI e r/claude no Reddit discutiram intensamente a 3 de março, com muitos utilizadores pagos a reclamarem que, mesmo com uso muito baixo, continuam a receber erros de “rate limit” (limite de taxa).
Alguns relataram que, durante as falhas, o uso era de apenas 31%, mas o sistema bloqueava. Outros utilizadores com planos de 100 dólares mensais apontaram que, após vários dias de falhas, não receberam compensação alguma, e o atendimento ao cliente foi lento e pouco atento às reclamações.
A ansiedade geral concentra-se em três questões principais:
Primeiro, há diferenças de estabilidade entre serviços pagos e gratuitos?
Segundo, a infraestrutura consegue acompanhar o crescimento rápido?
Terceiro, deveria haver mecanismos mais transparentes de compensação ou SLA (Acordo de Nível de Serviço)?
À medida que a dependência aumenta, “Claude caiu, eu também”
Para além das queixas técnicas, há uma onda de posts humorísticos ou de resignação na comunidade. Um desenvolvedor comentou: “Claude caiu, eu também caí.” Descrevendo a situação de depender intensamente de IA para programar e, de repente, perder a ferramenta.
Mensagens de erro comuns incluem:
Falha no login
Erros HTTP
Mensagem “This isn’t working right now” (isto não está a funcionar neste momento)
Queda de desempenho
Alguns utilizadores sugerem que a API, por ser mais estável, deve ser usada durante picos de tráfego, ou que alternativas locais podem ser consideradas. Contudo, para quem usa a Claude como principal interface de trabalho, é difícil evitar completamente os impactos.
Na verdade, a Claude passou por um crescimento explosivo recentemente. O número de utilizadores gratuitos aumentou mais de 60% desde janeiro, e os assinantes pagos duplicaram desde outubro, chegando a superar o ChatGPT da OpenAI e a liderar a lista de apps gratuitos na Apple nos EUA.
Embora a rápida expansão traga vantagens de mercado, também coloca à prova a infraestrutura. O aumento repentino de tráfego em curto prazo desafia a capacidade de expansão de servidores, balanceamento de carga e mecanismos de gestão de erros.
O teste de realidade da infraestrutura de IA
Atualmente, não há sinais de falhas permanentes ou encerramentos de serviço, sendo os problemas considerados interrupções temporárias. Mas, para utilizadores que já incorporaram a IA nos seus fluxos de trabalho diários, “temporário” ainda significa perda de produtividade.
Quando a IA generativa passa de ferramenta experimental a infraestrutura crítica, as exigências de estabilidade aumentam. Não se trata apenas de competir em capacidades de modelos, mas também de arquitetura de nuvem, alocação de recursos e resiliência do sistema.
Num setor de IA altamente competitivo, manter operações estáveis durante o crescimento explosivo será decisivo. Os utilizadores podem acompanhar atualizações em tempo real na página de estado oficial, mas o desafio a longo prazo reside em tornar as ferramentas de IA verdadeiramente confiáveis ao nível de “infraestrutura crítica”.