Gate News informa que, el 16 de marzo, la herramienta local para ejecutar grandes modelos Ollama anunció oficialmente que se convierte en proveedor oficial de modelos para OpenClaw. Los usuarios pueden completar la integración ejecutando el comando openclaw onboard --auth-choice ollama, y todos los modelos de Ollama funcionarán de manera integrada y sin problemas con OpenClaw. En esta integración, Ollama ofrece un modo híbrido Cloud + Local, permitiendo a los usuarios utilizar simultáneamente modelos alojados en la nube por Ollama y modelos que se ejecutan localmente. La guía de OpenClaw detectará automáticamente los modelos de Ollama instalados localmente y soportará transmisión en streaming y llamadas a herramientas mediante la API nativa de Ollama. El fundador de OpenClaw, Peter Steinberger, participó en la revisión de esta integración.