Gate News notícia, 16 de março, a ferramenta de execução de grandes modelos locais Ollama anunciou hoje que se tornou oficialmente fornecedora de modelos da OpenClaw. Os usuários podem completar a integração executando o comando openclaw onboard --auth-choice ollama, e todos os modelos Ollama irão colaborar de forma transparente com o OpenClaw. A integração do Ollama oferece um modo híbrido Cloud + Local, permitindo aos usuários usar simultaneamente modelos hospedados na nuvem Ollama e modelos executados localmente. O assistente do OpenClaw detecta automaticamente os modelos Ollama instalados localmente e suporta streaming e chamadas de ferramentas via API nativa do Ollama. Peter Steinberger, fundador do OpenClaw, participou da revisão desta integração.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.