Resultados da pesquisa por "REWARD"
2026-04-23
20:31

Pyth Network muda para um modelo orientado por receita e descontinua o Pythnet até 2026

Mensagem da Gate News, 23 de abril — Pyth Network (PYTH), uma provedora de infraestrutura de dados para criptomoedas, anunciou uma grande reformulação de seu modelo econômico, passando de um sistema de incentivos baseado em tokens para uma estratégia de crescimento orientada por receita. De acordo com a proposta OP-PIP-100, a infraestrutura existente da rede,
Mais
PYTH12,74%
11:42

Pyth Network vai aposentar a cadeia de aplicação Pythnet mais tarde em 2026, encerrando as recompensas OIS

Mensagem do Gate News, 23 de abril — A Pyth Network anunciou que a cadeia de aplicação do Pythnet será aposentada mais tarde em 2026 após a aprovação da proposta OP-PIP-100, enquanto a proposta OP-PIP-103 definiu que a taxa de distribuição de recompensas do Oracle Integrity Staking (OIS) será zero, marcando o fim do mecanismo de recompensas OIS que foi lançado no final de 2024 e atraiu aproximadamente 1 bilhão de PYTH em staking acumulado
Mais
PYTH12,74%
04:54

A Perplexity revela método de pós-treinamento de agente de busca na web; modelo baseado em Qwen3.5 supera GPT-5.4 em acurácia e custo

A Perplexity usa SFT seguida de RL com modelos Qwen3.5, aproveitando um conjunto de dados de QA multi-hop e verificações por rubrica para aumentar a precisão e a eficiência da busca, alcançando desempenho FRAMES de nível superior. Resumo: O fluxo de trabalho de pós-treinamento da Perplexity para agentes de busca na web combina fine-tuning supervisionado (SFT) para impor aderência a instruções e consistência de linguagem com aprendizado por reforço online (RL) via o algoritmo GRPO. A etapa de RL usa um conjunto de dados proprietários de QA verificável multi-hop e dados conversacionais baseados em rubricas para evitar deriva do SFT, com agregação filtrada por recompensa e penalidades de eficiência dentro do grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL alcança o melhor desempenho em FRAMES, com 57,3% de acurácia com uma única chamada de ferramenta e 73,9% com quatro chamadas a US$ 0,02 por consulta, superando GPT-5.4 e Claude Sonnet 4.6 nessas métricas. A precificação é baseada em API e exclui caching.
Mais
12:51

Principal CEX pede ao Congresso dos EUA que implemente limite de isenção de imposto para cripto e permita escolha do momento do imposto das recompensas de staking

A principal CEX pede ao Congresso dos EUA que estabeleça uma isenção mínima de imposto para transações de cripto e ofereça flexibilidade no cronograma de declaração de staking, citando que formulários da Receita Federal mostram que a maioria das negociações fica abaixo dos limites e que há um pesado ônus de reporte. O artigo informa que uma grande exchange centralizada está pressionando o Congresso dos EUA a estabelecer limites mínimos de isenção ajustados pela inflação para transações de cripto e a permitir que os contribuintes escolham quando declarar recompensas de staking. Ele cita dados da CoinDesk mostrando 56 milhões de formulários de imposto de cripto enviados para 2025, com a maioria das transações avaliadas em menos de US$ 50, ilustrando o ônus administrativo das regras de reporte atuais e a necessidade de mudanças na política.
Mais
09:25

Hugging Face lança ml-intern de código aberto, um agente de IA para pesquisa autônoma em ML

ml-intern de código aberto, agente autônomo de pesquisa em ML da Hugging Face que lê artigos, seleciona dados, treina, avalia e itera entre ciência, medicina e matemática. Resumo: o ml-intern da Hugging Face é um agente autônomo de pesquisa em ML de código aberto que lê artigos, seleciona conjuntos de dados, treina em GPUs locais ou na nuvem, avalia resultados e itera melhorias. Construído sobre smolagents com interfaces de CLI e web, ele navega por arXiv/HF Papers, HF Hub e HF Jobs. As demonstrações abrangem ciência, medicina e matemática, mostrando automação ponta a ponta e ganhos de desempenho.
Mais