
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
2025年,对我来说是意义非凡的一年。这一年里,我从高考后的暑假偶然接触编程,到系统学习各种技术栈,再到成为一个坚持写博客的CSDN博主,每一步都走得踏实又匆忙。今天,我想以最平实的语言,记录下这一年的成长与感悟,既是对过去的复盘,也是对未来的期许。

随着 AI 技术融入千行百业,模型推理服务的性能,特别是延迟和吞吐量,已成为决定用户体验和商业成功的关键。容器化部署(使用 Docker 或 Podman)因其轻量、标准、可移植的特性,成为部署 AI 推理服务的首选方案。性能不及预期。明明在物理机上表现优异的模型,放入容器后延迟变高、吞吐量下降。这种性能损耗真的是容器技术固有的“开销”吗?答案是否定的。在绝大多数情况下,性能下降源于默认的、通用化

Pulsar 作为消息中间件的中流砥柱,以其更鲜明的存算分离、云原生特性,可发挥着更大的价值

“这个标题不够吸引人”“内容太干,读者不爱看”“配图不够专业”……作为一个兼职创作者,我已经记不清这是第多少次在深夜修改文案了。看着电脑屏幕上的空白文档,我陷入了深深的迷茫:明明已经很努力了,为什么我的内容始终没有起色?为什么别人的文章轻松10万+,而我的阅读量总是停留在三位数?

核心落地逻辑是“版本匹配+轻量化优化+场景化微调”:先确保PyTorch/torch_npu/CANN版本严格兼容,再通过量化、设备映射解决显存问题,最后基于MindSpeed LLM完成场景适配,借助vLLM实现高吞吐服务部署。这套流程既适配个人开发者的免费资源场景,也满足企业级生产部署的稳定性、安全性要求,是国产芯片大模型落地的可复制方案。+Llama-2-7B”vs“英伟达A10+Llama

核心落地逻辑是“版本匹配+轻量化优化+场景化微调”:先确保PyTorch/torch_npu/CANN版本严格兼容,再通过量化、设备映射解决显存问题,最后基于MindSpeed LLM完成场景适配,借助vLLM实现高吞吐服务部署。这套流程既适配个人开发者的免费资源场景,也满足企业级生产部署的稳定性、安全性要求,是国产芯片大模型落地的可复制方案。+Llama-2-7B”vs“英伟达A10+Llama

核心落地逻辑是“版本匹配+轻量化优化+场景化微调”:先确保PyTorch/torch_npu/CANN版本严格兼容,再通过量化、设备映射解决显存问题,最后基于MindSpeed LLM完成场景适配,借助vLLM实现高吞吐服务部署。这套流程既适配个人开发者的免费资源场景,也满足企业级生产部署的稳定性、安全性要求,是国产芯片大模型落地的可复制方案。+Llama-2-7B”vs“英伟达A10+Llama

在这个AI技术飞速发展的时代,每一个创作者都在思考同一个问题:如何让人工智能真正成为自己的创作助手,而不是一个冷冰冰的工具?当ChatGPT、Midjourney、Stable Diffusion等AI工具层出不穷时,我们需要的不仅仅是使用技巧,更需要的是与行业顶尖专家的深度交流,需要的是一套完整的AI创作方法论。

我们用的是MindIE的openEuler镜像,先装基础依赖:暂时无法在飞书文档外展示此内容然后就可以开始执行编译:暂时无法在飞书文档外展示此内容Apex编译看似简单,实则暗藏许多细节。本文通过真实案例,深入剖析了从网络代理到系统库路径的各个环节。Docker守护进程代理配置容易漏lib和lib64路径差异编译脚本会覆盖手动修改希望大家可以学习一些经验教训,对于大模型训练来说,Apex基本是必备工

AI Ping并非简单的“又一个AI工具”,而是一次对“人机交互本质”的重新思考——它以用户需求为核心,通过多模态理解、个性化服务与场景化深耕,让AI从“被动应答者”转变为“主动协作者”。在技术层面,其多模态大模型、实时交互引擎与安全伦理框架构成了坚实底座;在应用层面,覆盖教育、办公、生活的丰富场景验证了其通用性与实用性;在未来规划中,开放生态与情感计算的探索更赋予了它超越工具的想象空间








