logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

gflags+spdlog实战:C++命令行参数与高性能日志的极致搭配行动指南

本文介绍gflags命令行参数解析库(轻量高效、类型安全)与spdlog高性能日志库(同步/异步、多平台),涵盖安装、基础使用及二次封装等帮助C++项目灵活配置与高效日志管理。

文章图片
#c++
gflags+spdlog实战:C++命令行参数与高性能日志的极致搭配行动指南

本文介绍gflags命令行参数解析库(轻量高效、类型安全)与spdlog高性能日志库(同步/异步、多平台),涵盖安装、基础使用及二次封装等帮助C++项目灵活配置与高效日志管理。

文章图片
#c++
指尖敲代码,笔尖写成长:2025年度总结与那些没说出口的碎碎念

2025年,对我来说是意义非凡的一年。这一年里,我从高考后的暑假偶然接触编程,到系统学习各种技术栈,再到成为一个坚持写博客的CSDN博主,每一步都走得踏实又匆忙。今天,我想以最平实的语言,记录下这一年的成长与感悟,既是对过去的复盘,也是对未来的期许。

文章图片
#c++
突破算力极限:基于openEuler的容器级AI推理优化实战

随着 AI 技术融入千行百业,模型推理服务的性能,特别是延迟和吞吐量,已成为决定用户体验和商业成功的关键。容器化部署(使用 Docker 或 Podman)因其轻量、标准、可移植的特性,成为部署 AI 推理服务的首选方案。性能不及预期。明明在物理机上表现优异的模型,放入容器后延迟变高、吞吐量下降。这种性能损耗真的是容器技术固有的“开销”吗?答案是否定的。在绝大多数情况下,性能下降源于默认的、通用化

文章图片
#人工智能
Pulsar 特性在 AI 场景中的使用

Pulsar 作为消息中间件的中流砥柱,以其更鲜明的存算分离、云原生特性,可发挥着更大的价值

文章图片
#人工智能#大数据#数据库
从深夜改稿到安心创作:AI时代的另一种可能,AMA与你细说

“这个标题不够吸引人”“内容太干,读者不爱看”“配图不够专业”……作为一个兼职创作者,我已经记不清这是第多少次在深夜修改文案了。看着电脑屏幕上的空白文档,我陷入了深深的迷茫:明明已经很努力了,为什么我的内容始终没有起色?为什么别人的文章轻松10万+,而我的阅读量总是停留在三位数?

文章图片
#人工智能
Llama-2-7B在昇腾Atlas 800T上的全流程部署:从环境搭建到生产级推理

核心落地逻辑是“版本匹配+轻量化优化+场景化微调”:先确保PyTorch/torch_npu/CANN版本严格兼容,再通过量化、设备映射解决显存问题,最后基于MindSpeed LLM完成场景适配,借助vLLM实现高吞吐服务部署。这套流程既适配个人开发者的免费资源场景,也满足企业级生产部署的稳定性、安全性要求,是国产芯片大模型落地的可复制方案。+Llama-2-7B”vs“英伟达A10+Llama

文章图片
#人工智能
Llama-2-7B在昇腾Atlas 800T上的全流程部署:从环境搭建到生产级推理

核心落地逻辑是“版本匹配+轻量化优化+场景化微调”:先确保PyTorch/torch_npu/CANN版本严格兼容,再通过量化、设备映射解决显存问题,最后基于MindSpeed LLM完成场景适配,借助vLLM实现高吞吐服务部署。这套流程既适配个人开发者的免费资源场景,也满足企业级生产部署的稳定性、安全性要求,是国产芯片大模型落地的可复制方案。+Llama-2-7B”vs“英伟达A10+Llama

文章图片
#人工智能
Llama-2-7B在昇腾Atlas 800T上的全流程部署:从环境搭建到生产级推理

核心落地逻辑是“版本匹配+轻量化优化+场景化微调”:先确保PyTorch/torch_npu/CANN版本严格兼容,再通过量化、设备映射解决显存问题,最后基于MindSpeed LLM完成场景适配,借助vLLM实现高吞吐服务部署。这套流程既适配个人开发者的免费资源场景,也满足企业级生产部署的稳定性、安全性要求,是国产芯片大模型落地的可复制方案。+Llama-2-7B”vs“英伟达A10+Llama

文章图片
#人工智能
与行业大咖面对面,解锁智能创作的无限可能!

在这个AI技术飞速发展的时代,每一个创作者都在思考同一个问题:如何让人工智能真正成为自己的创作助手,而不是一个冷冰冰的工具?当ChatGPT、Midjourney、Stable Diffusion等AI工具层出不穷时,我们需要的不仅仅是使用技巧,更需要的是与行业顶尖专家的深度交流,需要的是一套完整的AI创作方法论。

文章图片
#人工智能
    共 107 条
  • 1
  • 2
  • 3
  • 11
  • 请选择