Ollama v0.12.0发布:云端模型+本地协同,大模型开发新体验!建议收藏!!
Ollama v0.12.0推出云端模型预览功能,支持qwen3-coder、gpt-oss和deepseek等超大模型运行,无需担心本地显存限制。新增BERT和Qwen 3系列模型支持,优化了GPU兼容性与API行为,完全兼容OpenAI接口。开发者可通过CLI、JavaScript、Python等多种方式调用云端模型,实现本地与云端无缝协同,为本地硬件不足的开发者提供了解决方案。
2025年9月18日,Ollama 发布了 v0.12.0 版本更新,本次更新带来了一个重量级的新特性——云端模型(Cloud Models)预览功能,使开发者不仅能在本地运行模型,还能直接调用云端算力运行超大模型,实现本地与云端的无缝协同。同时,本版本也对多种模型架构的支持、GPU 兼容性以及 API 行为做了重要优化。
一、核心更新亮点
1. 云端大模型(Cloud Models)预览
在 v0.12.0 中,Ollama 首次提供了云端推理能力,开发者可以运行体量更大的模型,而无需担心本地机器显存容量不足。云端模型通过 数据中心级别硬件 提供推理计算,同时保持了 Ollama 一贯的隐私与安全政策——不保留用户数据。
通过云端模式,你可以直接调用如 qwen3-coder:480b-cloud
、gpt-oss:120b-cloud
、deepseek-v3.1:671b-cloud
等超大模型,并与本地工具链无缝集成。
示例运行命令:
.
ollama run qwen3-coder:480b-cloud
当前可用的云端模型包括:
- • qwen3-coder:480b-cloud(阿里巴巴长上下文编码及智能体任务优化模型)
- • gpt-oss:120b-cloud(OpenAI 自研推理与智能体任务模型)
- • gpt-oss:20b-cloud
- • deepseek-v3.1:671b-cloud(混合推理模式模型,支持思维链与非思维链模式)
2. 新增模型架构支持
- • BERT 系列模型现已在 Ollama 引擎上运行,更适合各种文本分类、检索与 NLU 场景。
- • Qwen 3 系列模型也已集成至 Ollama 引擎,可在本地和云端流畅运行。
3. GPU 与性能优化
- • 修复了 旧款 NVIDIA GPU 在新驱动环境下无法被检测的问题。
- • 修复了多版本 CUDA 环境下的兼容性问题(Multi-CUDA version skew)。
- • 优化了模型导入流程,避免了
ollama create
导入失败的 bug。 - • 构建系统优化,防止并行构建导致内存或线程资源耗尽。
4. API 行为改进
- • 针对
/api/generate
接口,如果提示中包含初始<think>
标记,将不会进行重复解析,避免响应异常。 - • API 与 OpenAI 接口现已完全兼容,可直接用 OpenAI SDK 方式调用。
- • 新增远程代理(Remote Proxy)支持,可更方便部署在跨网络环境。
二、使用方法
1. 安装或升级
下载最新 v0.12.0 版本后,即可使用云端功能。
2. 签到认证
云端推理需要在 Ollama 平台进行账号登录:
.
ollama signin
退出登录:
.
ollama signout
3. 运行云端模型
CLI 方式运行:
.
ollama run gpt-oss:120b-cloud
查看已拉取的模型列表:
.
ollama ls
输出示例:
.
NAME ID SIZE MODIFIED
gpt-oss:120b-cloud 569662207105 - 5 seconds ago
deepseek-v3.1:671-cloud d3749919e45f - 2 days ago
qwen3-coder:480b-cloud 11483b8f8765 - 2 days ago
4. API 调用示例
JavaScript
.
import ollama from "ollama";
const response = await ollama.chat({
model: "gpt-oss:120b-cloud",
messages: [{ role: "user", content: "天空为什么是蓝色的?" }],
});
console.log(response.message.content);
Python
.
import ollama
response = ollama.chat(
model='gpt-oss:120b-cloud',
messages=[{'role': 'user','content': '天空为什么是蓝色的?'}]
)
print(response['message']['content'])
cURL
.
curl http://localhost:11434/api/chat -d '{
"model": "gpt-oss:120b-cloud",
"messages": [{
"role": "user",
"content": "天空为什么是蓝色的?"
}],
"stream": false
}'
三、总结
Ollama v0.12.0 的发布,标志着该平台从本地推理走向了云端与本地融合的新阶段。这不仅解决了本地硬件性能不足的问题,还统一了 API 调用方式,使得开发者能够像使用本地模型一样,轻松调用超大规模云端模型。
最后
为什么要学AI大模型
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。
与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

AI大模型系统学习路线
在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。
但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。
AI大模型入门到实战的视频教程+项目包
看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
海量AI大模型必读的经典书籍(PDF)
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
600+AI大模型报告(实时更新)
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
AI大模型面试真题+答案解析
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

更多推荐
所有评论(0)