Aviso para as amigas: muitos dos novos veículos elétricos agora têm modo sentinela, por favor tenham cuidado com o vosso comportamento e evitem tornar-se recursos (abaixo está o exemplo).



Sentia-se que há alguns anos ainda se discutia se os modelos de IA eram poderosos, qual era a precisão e as pontuações dos testes. Mas agora a maioria já ultrapassou isso, e se a IA realmente participar no mercado no futuro, apenas olhar para estes dados de teste na verdade não é suficiente.

Vendo os dados da @inference_labs, o seu TruthTensor já executou mais de 1,1 milhão de agentes de IA. Estes AIs não apenas fazem testes, mas funcionam num ambiente com recompensas e feedback.

As informações estão sempre a mudar, o comportamento da IA será afetado pelas recompensas, e logo após tomar uma decisão haverá feedback de resultados.

O objetivo de fazer isto é bastante direto: ver como a IA se comporta num ambiente económico real.

Porque se a IA realmente participar em negociação, análise de mercado ou tomar algumas decisões no futuro, não se pode apenas olhar para as pontuações dos testes do modelo, mas também para o seu desempenho num ambiente real.

Portanto, um sistema como TruthTensor é essencialmente colocar a IA para funcionar num ambiente real e ver o que faz sob pressão. Só assim se pode avaliar a capacidade da IA de forma mais realista.

#InferenceLabs @inference_labs
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar