
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Ollama 是一个开源的本地化大模型运行平台,支持用户直接在个人计算机上部署、管理和交互大型语言模型(LLMs),无需依赖云端服务。而且其混合推理的特性也使得CPU和GPU的算力能够充分被使用,能够在同等配置下跑更大的模型,是非常适合个人学习使用的平台。本篇将详细介绍Ollama在各种平台上的详细安装过程以及应用。

2026年2月19-20日,全球AI领域迎来爆发性突破。中国在医疗AI和芯片研发取得重大成果:DeepRare罕见病诊断系统登顶《Nature》,清华推出全球首款量产级全柔性AI芯片FLEXI。OpenAI、xAI等企业密集发布GPT-5.2、Grok4.2等新一代AI模型,性能显著提升。全球算力军备赛升级,英伟达、Meta等企业加速布局。资本市场火热,OpenAI融资超千亿美元,国内月之暗面获7

有Mac+抢到邀请 → 玩腾讯Q-Claw想简单无脑上手 → 冲智谱AutoClaw爱摸鱼想云端养 → 选字节Coze小米17系列+极客身份 → 等小米MiClaw邀请总之,现在的AI龙虾圈就是:大厂内卷、用户抢码、普通人坐等公测~你抢到内测资格了吗?评论区聊聊你最想养哪只龙虾!

AI从"聊天"走向"行动":智能体Agent成为新入口本地+隐私成标配:企业与个人更看重数据安全国产技术全线提速:大模型、端侧、硬件同步突破机会与风险并存:装机热背后,安全与合规不能少一句话预判:人人拥有专属AI数字员工的时代,真的来了。图 | AI时代总结Part.07 互动与关注。

2026年开年,科技圈被一只"龙虾"霸屏了。它不是餐桌上的麻辣小龙虾,也不是水族馆里的观赏生物,而是一个名叫OpenClaw的开源AI项目。粉丝们自称"甲壳教徒",喊着"记忆是神圣的"口号,疯狂"养虾";工信部紧急发布安全警告,提醒大家警惕它的潜在风险;它从一个程序员的业余玩具,短短3个月登顶GitHub热榜,经历两次改名风波,却越挫越火。今天,我们就来扒一扒OpenClaw的前世今生,聊聊它背后

AI从"聊天"走向"行动":智能体Agent成为新入口本地+隐私成标配:企业与个人更看重数据安全国产技术全线提速:大模型、端侧、硬件同步突破机会与风险并存:装机热背后,安全与合规不能少一句话预判:人人拥有专属AI数字员工的时代,真的来了。图 | AI时代总结Part.07 互动与关注。

在人工智能模型的开发流程中,微调是让预训练模型适配特定任务、提升性能的关键环节。而在微调的启动方式上,“冷启动” 和 “热启动” 是两个高频出现但容易混淆的概念。很多刚接触模型微调的开发者,常会疑惑二者的核心区别的适用场景。今天这篇博客,就用通俗易懂的语言拆解这两个概念,结合实际微调案例,帮你搞懂什么时候该用冷启动,什么时候该选热启动。

矩阵吸收优化是一种针对Transformer自注意力机制的无损推理加速技术。其核心思想是利用矩阵乘法结合律和模型参数的固定性,通过预计算合并查询和键的投影矩阵W_qk=W_q^U·(W_k^U)^T,将标准自注意力计算中的3次矩阵乘法减少为2次。该技术可降低30%-40%的计算量,实现1.5-2倍推理加速,尤其适用于长序列和高并发场景。优势包括无精度损失、实现简单、兼容其他优化技术,但仅适用于推理
在人工智能大模型飞速发展的今天,Transformer 架构无疑是撑起整个领域的 “基石”,而 MoE(Mixture of Experts)架构则凭借其独特的 “稀疏激活” 思路,成为突破大模型参数规模与计算效率瓶颈的 “关键引擎”。无论是 ChatGPT 背后的技术支撑,还是自动驾驶中的多模态感知,这两种架构都扮演着不可或缺的角色。本文将从核心原理、大模型设计逻辑和关键差异三个维度,带大家全面

过去十年,人工智能领域最震撼的变革之一,是模型参数量从百万级飙升至万亿级。从GPT-3的1750亿参数到GPT-4的神秘规模,再到谷歌Gemini的“多模态巨兽”,参数量仿佛成了AI能力的代名词。但参数真的是越多越好吗?这场“军备竞赛”背后,是否隐藏着更底层的规律?今天,我们拆解参数量的决定性因素,并透过Scaling Law(尺度定律)的视角,窥探AI发展的终极密码。








