Ollama宣布成为OpenClaw官方模型提供商:一条命令接入,支持云端与本地模型混合调用

快链头条 2026-03-16 14:09:23
阅读 1,675
二维码
微信扫一扫,分享此文章

据 1M AI News 监测,本地大模型运行工具 Ollama 今日宣布正式成为 OpenClaw 的官方模型提供商。用户执行 openclaw onboard --auth-choice ollama 即可完成接入,所有 Ollama 模型将与 OpenClaw 无缝协作。

Ollama 此次接入提供「Cloud + Local」混合模式,用户可同时使用 Ollama 云端托管的模型和本地运行的模型。OpenClaw 的引导向导会自动检测本地已安装的 Ollama 模型,并通过 Ollama 原生 API 支持流式传输和工具调用。OpenClaw 创始人 Peter Steinberger 参与了此次集成的审核工作。

快链头条登载此文本着传递更多信息的缘由,并不代表赞同其观点或证实其描述。
文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
投资有风险,入市须谨慎。本资讯不作为投资理财建议。

推荐活动