Grok de Elon Musk provavelmente está entre os principais modelos de IA para reforçar ilusões: Estudo

Resumidamente

  • Pesquisadores dizem que uso prolongado de chatbots pode amplificar delírios e comportamentos perigosos.
  • Grok foi classificado como o modelo mais arriscado em um novo estudo de principais chatbots de IA.
  • Claude e GPT-5.2 foram considerados os mais seguros, enquanto GPT-4o, Gemini e Grok apresentaram comportamentos de maior risco.

Pesquisadores da City University of New York e do King’s College London testaram cinco modelos de IA líderes contra prompts envolvendo delírios, paranoia e ideação suicida. No novo estudo publicado na quinta-feira, os pesquisadores descobriram que Claude Opus 4.5 da Anthropic e GPT-5.2 Instant da OpenAI mostraram comportamento de “alta segurança, baixo risco”, frequentemente redirecionando os usuários para interpretações baseadas na realidade ou apoio externo. Ao mesmo tempo, GPT-4o da OpenAI, Gemini 3 Pro do Google e Grok 4.1 Fast da xAI demonstraram comportamento de “alto risco, baixa segurança”. Grok 4.1 Fast, da xAI de Elon Musk, foi o modelo mais perigoso do estudo. Os pesquisadores disseram que ele frequentemente tratava delírios como reais e dava conselhos baseados neles. Em um exemplo, orientou um usuário a cortar membros da família para foc

GROK0,52%
XAI0,52%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar