Resultados da pesquisa de "BUG"
2026-05-05
08:11

A TrendAI faz parceria com a Anthropic para encontrar vulnerabilidades na plataforma de IA, deteta uma falha CVSS 9,8 no Nvidia Isaac GR00T

De acordo com a Trend Micro, a TrendAI está a colaborar com a Anthropic para usar o Claude Opus 4.7 em investigação de segurança com o objetivo de identificar falhas de software exploráveis e classificá-las por risco. A TrendAI juntou-se ao Programa de Verificação Cibernética da Anthropic, que concede às equipas aprovadas acesso a IA de ponta
Mais
01:49

OpenClaw lança a v2026.5.2 com migração de plugins do npm para o ClawHub, mais de 200 correções de bugs

De acordo com Beating, o assistente pessoal de IA open-source OpenClaw lançou a v2026.5.2 a 3 de maio, uma grande atualização de manutenção de engenharia. A mudança central envolve a migração do sistema de plugins do npm para a plataforma de distribuição construída pela própria ClawHub. A atualização inclui mais de 200 correções de bugs e introduz t
Mais
11:29

O código Claude da Anthropic cobrou a um utilizador a mais 200,98 dólares devido a um erro de faturação, tendo inicialmente recusado o reembolso antes de uma compensação total

De acordo com o monitorização da Beating, um erro de faturação no serviço Claude Code da Anthropic fez com que um subscritor do Max 20x fosse cobrado a mais 200,98 USD em taxas adicionais de utilização, apesar de apenas utilizar 13% da sua quota mensal. O bug foi despoletado quando o histórico de commits do repositório git de um utilizador continha o caractere em maiúscula
Mais
05:17

GPT-5.5 Regressa ao Estado da Arte na Codificação, mas a OpenAI Muda os Benchmarks Depois de Perder para o Opus 4.7

Gate News mensagem, 27 de Abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, publicou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal conclusão: GPT-5.5 marca o primeiro regresso da OpenAI ao estado da arte em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora a alternar entre Codex e Claude Code após antes dependerem quase exclusivamente de Claude. O GPT-5.5 baseia-se numa nova abordagem de pré-treinamento com o nome de código "Spud" e representa a primeira expansão do OpenAI da escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de responsabilidades. Claude trata do planeamento de novos projectos e da configuração inicial, enquanto Codex se destaca em correcções de bugs que exigem raciocínio intensivo. O Codex mostra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades em inferir intenções de utilizador ambíguas. Numa tarefa única no mesmo painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados; já o Codex ignorou o layout, mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação do benchmark: um post de Fevereiro da OpenAI incentivava a indústria a adoptar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras pequenas, é que o GPT-5.5 foi ultrapassado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do Mythos 77.8%, ainda não lançado da Anthropic. Quanto ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de Março a Abril, afectando quase todos os utilizadores. Vários engenheiros tinham previamente reportado degradação de desempenho na versão 4.6, mas foram descartados como observações subjectivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, o que a Anthropic admitiu abertamente — constituindo, na prática, um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhar o ritmo da fronteira, mas não liderar," posicionando-se como a alternativa de menor custo entre os modelos de código fechado. A análise também notou que "o Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita chinesa de alta dificuldade," comentando que "o Claude venceu o modelo chinês na sua própria língua." O artigo introduz um conceito-chave: a precificação do modelo deve ser avaliada por "custo por tarefa" e não por "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por milhão de tokens, mas conclui as mesmas tarefas usando menos tokens, pelo que o custo real não é necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a razão input-para-output do Codex é de 80:1, inferior à do Claude Code, que é de 100:1.
Mais
18:21
1

Luck.io, o Casino Não-Custodial da Solana, Encerra; Utilizadores Instados a Levantar Fundos Imediatamente

Mensagem de Notícias da Gate, 24 de abril — Luck.io, uma plataforma de casino não custodial construída na Solana, anunciou o seu encerramento a 24 de abril de 2026, instando todos os utilizadores a levantarem imediatamente os seus saldos das Smart Vaults. Os levantamentos podem ser iniciados através do website luck.io ou via a Ferramenta de Levantamento da Vault em
Mais
SOL3,22%
04:29

V4-Pro Atinge 67% de Taxa de Aprovação de Código em Teste Interno de Dogfooding, Aproximando o Desempenho do Opus 4.5

Mensagem do Gate News, 24 de abril — A V4 divulgou publicamente dados internos de dogfooding para o seu modelo V4-Pro. A empresa recolheu aproximadamente 200 tarefas reais de engenharia a partir de mais de 50 engenheiros, cobrindo desenvolvimento de funcionalidades, correções de bugs, refatoração e diagnósticos em várias pilhas tecnológicas, incluindo
Mais