logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ollama v0.19.0 发布!Web 搜索插件上线、多模型兼容修复、MLX 与 KV 缓存全面优化,本地大模型体验再升级

代码地址:bgithub.xyz/ollama/ollamaollama v0.19.0版本从用户体验、功能拓展、底层性能、模型兼容四大方向发力,新增Web搜索插件拓展本地模型能力,修复多模型(Qwen3.5、Grok、qwen3-next:80b)的核心问题,优化MLX运行器与KV缓存机制,同时完善API、CI、工具集成等模块的细节,全面提升ollama的稳定性、兼容性与易用性,为本地大模型开发

#缓存
ollama v0.12.0 发布:引入云端大模型预览,支持本地与云端无缝融合

使开发者不仅能在本地运行模型,还能直接调用云端算力运行超大模型,实现本地与云端的无缝协同。同时,本版本也对多种模型架构的支持、GPU 兼容性以及 API 行为做了重要优化。在 v0.12.0 中,Ollama 首次提供了云端推理能力,开发者可以运行体量更大的模型,而无需担心本地机器显存容量不足。这不仅解决了本地硬件性能不足的问题,还统一了 API 调用方式,使得开发者能够像使用本地模型一样,轻松调

#android
openclaw v2026.3.28更新详解:模型适配、插件增强、多平台优化一网打尽

代码地址:bgithub.xyz/openclaw/openclawopenclaw v2026.3.28版本聚焦模型适配、插件安全、多平台交互、部署简化四大核心方向,通过Breaking变更清理历史包袱,同时新增多项实用功能,大幅提升AI智能体开发与运行的效率与安全性。开发者需重点关注Qwen认证迁移、配置迁移规则调整,按需升级模型与插件配置,充分利用xAI搜索、MiniMax图像生成、工具审批

#网络#服务器#运维
openclaw v2026.3.24 版本发布:从OpenAI模型与Embedding到Teams与Slack交互 全链路体验与稳定性一次补齐

代码地址:bgithub.xyz/openclaw/openclawopenclaw v2026.3.24版本是一次兼顾兼容性、易用性、安全性与稳定性的全面升级。在OpenAI生态适配、智能体工具管理、多平台交互优化上实现重大突破,同时通过CLI与容器支持、UI界面重构、运行时兼容性调整,大幅降低了部署与使用门槛;问题修复则聚焦媒体安全、网关稳定性、多平台适配等核心痛点,为企业级与个人用户提供了更

ollama v0.18.3 发布:VS Code 原生集成 + Agent 模式,本地 AI 开发体验全面革新

Ollama v0.18.3正式开放Agent模式,这一功能让Ollama能够借助VS Code的Agent模式能力,自主执行命令、编辑文件、迭代代码,从单纯的“问答式AI助手”升级为“可行动的开发智能体”,大幅提升AI在开发流程中的自动化能力。简单来说,Agent模式下的Ollama不再局限于“你问我答”,而是可以根据开发者的指令,直接操作VS Code完成一系列开发任务,例如运行测试、修复Bu

#人工智能
openclaw v2026.3.23 发布:模型接入、插件体系、CLI、代理与安全能力全面进化的里程碑版本

代码地址:bgithub.xyz/openclaw/openclaw插件体系从“可用”走向“可靠”模型接入从“能连”走向“可运营”OAuth 与代理环境从“脆弱”走向“企业级”安全策略从“防御性”走向“可审计”这是一个为长期演进打地基的版本。如果你正在生产环境中使用 openclaw,v2026.3.23 是一个不应跳过的关键节点。

agno v2.5.10 更新解析:并行搜索、全链路可观测性、多平台通信接口全面进化

代码地址:bgithub.xyz/agno-agi/agnoagno v2.5.10 并不是一次简单的功能叠加,而是一次面向生产、面向多平台、面向复杂 Agent 系统并行搜索与检索让 Agent 更快、更准MLflow 可观测性让 Agent 更可控、更可信Docling Reader 打开文档处理新边界WhatsApp 与 Telegram 接口让 Agent 真正走向真实用户Workflow

openclaw v2026.3.13 发布:一次为修复而生的不可变恢复版本,涵盖网关、Agents、UI、移动端、Docker、浏览器与安全的全面升级

代码地址:github.com/openclaw/openclaw尽管 openclaw v2026.3.13-1 是一个恢复型发布✅ 会话与上下文更稳定✅ Agents 体系更安全、更可控✅ Gateway 与网络层可靠性显著提升✅ UI 与移动端体验持续进化✅ Docker、macOS、Windows 全平台加固✅ 配置、模型、Schema 更加严谨✅ 第三方平台接入更健壮。

#ui#docker#安全
ollama v0.18.2 发布!OpenClaw 安装优化、Claude 加速、MLX 量化全面升级

2026年3月19日,Ollama 正式推出 v0.18.2 最新版本,本次更新聚焦于本地运行效率、依赖检查、模型适配、插件注册、会话管理、界面兼容、云端代理流式处理以及 MLX 推理架构等多个核心模块,全面修复了历史版本中的多项问题,同时对底层推理、模型加载、工具集成逻辑进行深度重构,极大提升了 OpenClaw、Claude Code、Ollama 本地模型、云端模型的使用稳定性与运行速度。

#golang
ComfyUI v0.18.0 发布:显存与内存极限优化、VAE架构全面进化、API节点与前端生态深度升级

代码地址:github.com/Comfy-Org/ComfyUI如果你符合以下任一情况,v0.18.0 都是强烈推荐升级的版本显存 8G / 12G 甚至更低使用 LTX / WAN / 视频 VAE需要高分辨率或大批量推理关注推理稳定性与内存安全使用 API Nodes 或自动化部署进行模型训练或混合精度实验ComfyUI v0.18.0 并不是功能堆砌型更新,而是一次深度“工程级进化”。

#前端
    共 363 条
  • 1
  • 2
  • 3
  • 37
  • 请选择