Após 48 horas de bloqueio, o Claude voltou a ser o mais descarregado na App Store

Título original: Após 48 horas de bloqueio, Claude alcança o primeiro lugar na App Store

Autor original: 0x2333

Fonte original:

Reprodução: Mars Finance

Sábado de manhã, Ultraman compartilhou uma captura de tela de uma carta interna no X.

A carta foi escrita na noite de quinta-feira para os funcionários da OpenAI, dizendo que a empresa está negociando com o Pentágono e que espera ajudar a “acalmar a situação”. Ele repostou a carta com algumas linhas explicativas, dizendo que queria esclarecer publicamente o que aconteceu nos últimos dias.

Quando ele publicou esse tweet, Claude já tinha subido ao primeiro lugar na lista de apps gratuitos da App Store nos EUA. No dia anterior, o ChatGPT ainda ocupava essa posição.

Dados do Sensor Tower registraram o que aconteceu nas horas seguintes: no sábado, o número de desinstalações do ChatGPT nos EUA aumentou 295% em um único dia, com um aumento de 775% em avaliações de uma estrela. Ao mesmo tempo, as instalações do Claude subiram 51% nesse dia. No Reddit, surgiram posts com a hashtag “Cancel ChatGPT” (Cancelar o ChatGPT), usuários compartilhando capturas de tela de cancelamentos, e alguém comentou “a instalação mais rápida da minha vida”. Um site chamado QuitGPT.org foi lançado, alegando que 1,5 milhão de pessoas já tomaram essa ação.

Na segunda-feira, devido ao volume de usuários, Claude sofreu uma grande queda de serviço. A empresa, considerada uma “risco de segurança na cadeia de suprimentos” pelo governo federal, não aguentou a demanda e os servidores ficaram sobrecarregados.

Resposta de produto precisa

No mesmo dia do pico de desinstalações, a Anthropic lançou uma ferramenta de transferência de memória.

A funcionalidade não é complexa. O usuário copia uma solicitação para o ChatGPT, que retorna todas as memórias e preferências armazenadas, e depois cola no Claude, que importa tudo com um clique, continuando de onde parou no ChatGPT. A única frase no site é: “mude para o Claude sem começar do zero”.

O timing dessa ferramenta é sua característica mais importante.

Dados da própria OpenAI mostram que, até meados de 2025, mais de 70% dos usos do ChatGPT não serão relacionados ao trabalho, incluindo perguntas diárias, escrita, entretenimento e busca de informações. É o primeiro contato de muitas pessoas com IA, que se integra ao cotidiano por meio de um ecossistema de plugins, Voice Mode e aplicações de terceiros profundamente integradas. Para esses usuários, o custo de mudança não é apenas “baixar um novo app”, mas reensinar uma IA que não conhece você do zero. A acumulação de memórias é a maior razão para permanecer.

Dados de pesquisa da própria Anthropic indicam que os cenários de uso do Claude são altamente concentrados. Programação e tarefas matemáticas representam 34%, sendo a maior categoria, enquanto educação e pesquisa científica tiveram o maior crescimento no último ano. Os principais usuários são desenvolvedores, pesquisadores e escritores intensivos, que são mais racionais e mais propensos a trocar de ferramenta por uma justificativa clara, desde que o custo de migração seja baixo.

A ferramenta de transferência de memória minimiza esse custo. Além disso, a Anthropic anunciou que tornará a funcionalidade de memória acessível gratuitamente, antes disponível apenas para assinantes pagos.

Porém, muitos dos usuários que migraram não eram o público-alvo original do Claude.

Segundo feedback nas redes sociais, muitos usuários comuns migrantes do ChatGPT dizem que, ao usar o Claude pela primeira vez, a reação é: “Ele é diferente.” Alguns acham que as respostas do Claude são mais profundas, mais reflexivas, e que ele tende a devolver a resposta, ao invés de simplesmente concordar com tudo. Outros percebem que ele escreve de forma mais limpa, mas não gera imagens nem oferece uma experiência interativa como o Voice Mode.

Alguns buscavam um “substituto mais obediente do ChatGPT”, mas descobriram que o Claude tem uma personalidade mais forte, e que leva tempo para se adaptar. Um guia de migração do TechRadar, amplamente compartilhado recentemente, tem o título: “Gostaria que alguém tivesse me avisado sobre isso antes”. A mensagem central é: o modo de uso do Claude é fundamentalmente diferente do do ChatGPT, sendo o primeiro mais como um parceiro de trabalho com uma posição definida, enquanto o segundo é mais um assistente universal.

Essa diferença, que originalmente refletia os posicionamentos de cada produto, foi amplificada por esse episódio. Usuários migraram para o Claude por motivos morais, só para descobrirem um produto diferente do esperado, mais exigente e com limites claros. Isso poderia ser uma razão para abandonar, mas, neste momento, virou uma razão para ficar: acreditar na postura de uma empresa torna mais fácil aceitar sua lógica de produto.

Dias após o lançamento, a Anthropic divulgou dados: o número de usuários ativos gratuitos cresceu mais de 60% em relação a janeiro, e as novas inscrições diárias quadruplicaram. O Claude chegou a ficar fora do ar por excesso de acessos, com milhares de usuários relatando impossibilidade de login, mas o problema foi resolvido em poucas horas.

Três palavras no contrato: O que a OpenAI disse e fez

A Anthropic foi a primeira empresa comercial a implantar um modelo de IA em uma rede confidencial do exército dos EUA, em parceria com a Palantir, com um contrato avaliado em cerca de 200 milhões de dólares. Nos últimos meses, a relação entre as duas partes deteriorou-se. A controvérsia central é uma cláusula: o Pentágono exige que os modelos de IA sejam abertos para “todos os usos legais”, sem condições. A Anthropic insiste em excluir usos que envolvam vigilância em massa de cidadãos americanos ou armas autônomas completas.

Por volta de 20 de fevereiro, relatos indicam que um executivo da Anthropic questionou a Palantir sobre o uso do Claude na operação de captura do presidente venezuelano Maduro pelo exército dos EUA em janeiro, o que gerou forte insatisfação militar. Na quinta-feira, o Pentágono enviou um ultimato, exigindo uma resposta de Dario Amodei até às 17h do mesmo dia.

Amodei publicou uma declaração antes do prazo, dizendo que a empresa não podia aceitar os termos atuais, “não porque somos contra usos militares, mas porque, em alguns casos, acreditamos que a IA pode prejudicar, e não defender, valores democráticos”. Trump imediatamente anunciou a suspensão de seis meses de todas as operações da Anthropic por agências federais, e o Hegseth listou a empresa como “risco de segurança na cadeia de suprimentos”, um rótulo geralmente usado para empresas adversárias estrangeiras. Assim, o contrato foi encerrado.

O espaço foi rapidamente preenchido. Ainda na mesma noite, a OpenAI anunciou a assinatura de um contrato com o Pentágono. Ultraman, na carta interna de quinta-feira, manteve uma postura clara, dizendo que tudo isso já é uma questão “de toda a indústria”, e que OpenAI e Anthropic compartilham a mesma “linha vermelha”: oposição à vigilância em massa e às armas autônomas. Na sexta-feira, o acordo foi fechado, com implantação de modelos na rede confidencial militar, limitados a rodar na nuvem, com engenheiros supervisionando, e com cláusulas contratuais que reforçam essas restrições.

Ultraman respondeu a perguntas no X por horas. Quando questionado por que o Pentágono aceitou a OpenAI, mas bloqueou a Anthropic, ele respondeu: “A Anthropic parece mais focada nas cláusulas específicas do contrato, enquanto estamos satisfeitos com a referência às leis aplicáveis.”

Essa resposta revela a diferença de abordagem, mas também revela a verdadeira controvérsia.

O ponto central do fracasso nas negociações com a Anthropic foi a insistência do Pentágono na cláusula: “todos os usos legais” para IA. A Anthropic recusou, argumentando que essa expressão não é uma fronteira fixa no contexto de segurança nacional. A legislação atual ainda não acompanhou o avanço da IA, e o que é “legal” será interpretado pelo próprio governo. A OpenAI aceitou essa cláusula, alegando que também há proteção semelhante no contrato.

Especialistas jurídicos analisaram as cláusulas do contrato da OpenAI, apontando duas questões específicas:

A cláusula de vigilância diz que o sistema não pode ser usado para “monitoramento não restrito” de informações privadas de cidadãos americanos. Samir Jain, vice-presidente de políticas do Centro de Democracia e Tecnologia, destacou que essa redação permite monitoramento “com restrições”. Sob o quadro legal atual, o governo pode comprar legalmente dados de localização, histórico de navegação e dados financeiros de cidadãos, e usar IA para analisá-los, sem configurar “monitoramento ilegal”. Amodei citou esse exemplo em entrevista à CBS.

A cláusula de armas afirma que o sistema não pode ser usado para armas autônomas “quando exigido por leis, regulamentos ou políticas departamentais que exijam controle humano”. Essa limitação só se aplica se já houver uma política que exija controle humano, e essa política pode ser alterada a qualquer momento pelo Pentágono. O jurista Charles Bullock escreveu no X que a cláusula depende da Instrução 3000.09 do DoD, que exige que os comandantes mantenham “grau adequado de julgamento humano”, uma norma que pode ser interpretada de forma flexível.

A resposta da OpenAI a essas dúvidas foi que o modelo só roda na nuvem, o que exclui sua integração direta em sistemas de armas. O contrato também especifica fundamentos legais, que têm mais peso do que cláusulas proibitivas, pois são estruturas já testadas. Ultraman também admitiu na resposta às perguntas: “Se precisarmos lutar essa guerra no futuro, lutaremos, mas isso claramente nos traz alguns riscos.”

Não se trata de uma questão de uma empresa querer ceder e outra de manter princípios, mas de duas filosofias de segurança fundamentalmente diferentes. A OpenAI tem como limite: não fazer o ilegal. A Anthropic, como limite, não faz o que a lei ainda não proibiu, mas acha que não deveria fazer.

Essa divergência também criou fissuras internas na OpenAI. Na semana passada, vários funcionários assinaram uma carta aberta apoiando a posição da Anthropic, contra a classificação da empresa como risco na cadeia de suprimentos. O pesquisador de alinhamento Leo Gao questionou publicamente se o contrato da empresa oferece proteção suficiente. Na calçada fora do escritório de São Francisco da OpenAI, apareceu grafite criticando. No escritório da Anthropic, mensagens de apoio. A sessão de perguntas e respostas de Ultraman no X durou várias horas, voltada em grande parte para sua própria equipe, que inicialmente apoiava a Anthropic.

Duas versões de uma mesma narrativa

A Anthropic há anos define sua missão de segurança como “evitar riscos de nível civilizacional”, equiparando as ameaças avançadas de IA a armas nucleares, posicionando-se como guardiã dessa linha de defesa. Essa narrativa é o núcleo de sua marca e a forma de conquistar confiança no mercado de capitais.

Durante o episódio, o comentarista de tecnologia Packy McCormick citou um conceito de Ben Thompson: o “Hype Tax” (imposto da hype). Significa que, se você constrói influência com narrativas extremas, quando essa narrativa encontra o poder real, você paga o preço. Comparar IA a armas nucleares faz com que o governo trate a IA como uma ameaça nuclear.

A Anthropic pagou esse preço: perdeu um contrato, foi classificada como risco de segurança, mencionada pelo presidente, e seus produtos tiveram que ser removidos de sistemas federais em seis meses.

Por outro lado, na mesma semana, a narrativa teve um efeito completamente oposto em outro nível.

Usuários comuns não veem cláusulas contratuais, nem debates legais, nem filosofias de segurança. Eles veem uma empresa que foi banida pelo governo. E outra que conseguiu o contrato. Com base em seus próprios critérios, eles fizeram suas escolhas: 295% de aumento nas desinstalações, primeiro lugar na App Store, servidores fora do ar.

É uma manifestação coletiva de moralidade dos consumidores rara na história da IA.

A Anthropic não gastou um centavo em publicidade para esse episódio. A declaração de Amodei foi moderada, sem apelar ao apoio dos usuários, sem atacar a OpenAI, sem se colocar como mártir. Mas o resultado aconteceu.

Um detalhe importante: o episódio que levou os usuários a migrar para o Claude foi, na essência, uma ação totalmente racional da OpenAI, que assinou um contrato em um momento de competição acirrada, enquanto seu rival estava bloqueado e sem contrato, e afirmou que tinha cláusulas de proteção semelhantes. Ultraman também deixou claro que sua intenção era ajudar a acalmar a situação, evitando danos adicionais à Anthropic.

Independentemente das motivações, o resultado foi: a OpenAI conseguiu o contrato, a base de usuários do Anthropic cresceu. Ambos tiveram custos e benefícios, apenas medidos de formas diferentes.

Outro ponto importante: o contrato perdido pela Anthropic com o Pentágono, avaliado em cerca de 200 milhões de dólares.

A receita anual atual da Anthropic é de aproximadamente 14 bilhões de dólares. A meta é chegar a 26 bilhões até 2026.

Recentemente, a empresa levantou uma rodada de financiamento Série E de 30 bilhões de dólares, com avaliação de 380 bilhões de dólares.

Fazendo as contas, não é difícil entender o cenário. Mas uma questão permanece sem resposta: quando a IA for realmente usada em larga escala para decisões militares, as “barreiras técnicas” e os engenheiros destacados nos contratos serão realmente eficazes, seja na OpenAI, seja na Anthropic.

Essa questão não está explicitamente no contrato já assinado.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)