logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

十分钟在 openEuler 上搭建本地 AI 服务:LocalAI 快速部署教程

本文介绍了在openEuler 25.09系统上使用Docker快速部署LocalAI本地推理环境的方法。LocalAI是一个兼容OpenAI API的开源推理引擎,支持多种模型格式。文章详细说明了从安装Docker、配置镜像加速到下载Llama-2-7B-Chat模型并启动服务的完整流程,重点解决了模型路径配置等常见问题。通过openEuler系统对容器技术的优化,模型加载速度可提升15-20%

文章图片
#人工智能
openEuler多核算力深度评测:4核4.6倍加速比背后的调度优化

本文全面验证了openEuler在多核并行计算场景下的卓越表现。测试数据表明,openEuler 25.09的多核调度算法非常高效,在4核环境下能够实现超过4倍的线性加速比(sysbench测试达到4.61x),CPU核心利用率均衡,没有明显的调度瓶颈

文章图片
#服务器#大数据
Catlass模板库:CANN开源仓编程实践与原生框架效率对比

本文深度解析昇腾CANN开源仓架构设计与核心能力,分享13年异构计算实战经验。内容涵盖CANN分层架构、AscendC核函数开发、性能优化方法论,提供完整编译部署指南与故障排查方案。关键亮点包括:1)软硬协同的CANN中枢架构解析;2)SPMD并行编程实战案例;3)内存对齐/算子融合等性能调优技巧;4)msprof工具链深度使用方法。通过实测数据展示GroupGEMM算子性能提升23.5%的优化过

文章图片
#开源
昇腾 CANN 开源仓实战指南:本地编译调试踩坑与性能优化全解析

Catlass实际架构包括:Device层屏蔽Host调用差异,Kernel层实现并行逻辑(如AICore上BlockTileM/BlockTileN循环),Block层封装BlockMmad(矩阵乘累加)、BlockEpilogue(后处理)等组件,Tile层支持灵活分片设置,Basic层对接昇腾硬件指令(如AscendC::Mmad):GroupGEMM的精髓在于“一次内核启动处理所有矩阵组”

文章图片
#开源
openEuler多核算力深度评测:4核4.6倍加速比背后的调度优化

本文全面验证了openEuler在多核并行计算场景下的卓越表现。测试数据表明,openEuler 25.09的多核调度算法非常高效,在4核环境下能够实现超过4倍的线性加速比(sysbench测试达到4.61x),CPU核心利用率均衡,没有明显的调度瓶颈

文章图片
#服务器#大数据
用 Perplexica 搜信息太爽了!加上cpolar突破局域网后,在哪都能用

Perplexica是一款开源AI搜索引擎,能深入挖掘网络信息并整理成简洁报告,支持自定义标签和多种搜索模式。通过Docker可快速部署,使用cpolar解决局域网限制后,可实现远程访问。它提供多种搜索资源选择,需配置模型设置后即可使用。cpolar还能配置固定二级子域名,方便长期稳定访问。Perplexica显著提升信息检索效率,适合各类查询需求。

文章图片
#服务器#数据库
openEuler多核算力深度评测:4核4.6倍加速比背后的调度优化

本文全面验证了openEuler在多核并行计算场景下的卓越表现。测试数据表明,openEuler 25.09的多核调度算法非常高效,在4核环境下能够实现超过4倍的线性加速比(sysbench测试达到4.61x),CPU核心利用率均衡,没有明显的调度瓶颈

文章图片
#服务器#大数据
十分钟在 openEuler 上搭建本地 AI 服务:LocalAI 快速部署教程

本文介绍了在openEuler 25.09系统上使用Docker快速部署LocalAI本地推理环境的方法。LocalAI是一个兼容OpenAI API的开源推理引擎,支持多种模型格式。文章详细说明了从安装Docker、配置镜像加速到下载Llama-2-7B-Chat模型并启动服务的完整流程,重点解决了模型路径配置等常见问题。通过openEuler系统对容器技术的优化,模型加载速度可提升15-20%

文章图片
#人工智能
AI 人像编辑新体验!FacePoke 轻松调表情,cpolar 助你随时随地创作

FacePoke是一款AI人像编辑工具,支持20多种面部细节调整,操作简单无需专业修图经验。本文介绍了两种本地部署方式:Windows系统使用整合包一键安装,Ubuntu系统通过Docker部署。为解决远程访问问题,推荐使用cpolar内网穿透工具生成公网地址,实现异地设备随时访问。文章详细演示了面部编辑功能,并指导如何创建固定公网地址以便长期使用。该方案适合设计师和内容创作者,突破地点限制,提升

文章图片
#人工智能
【数据结构】LRUCache|并查集

LRU是Least Recently Used的缩写,意思是最近最少使用,它是一种Cache替换算法。狭义的Cache指的是位于CPU和主存间的快速RAM, 通常它不像系统主存那样使用DRAM技术,而使用昂贵但较快速的SRAM技术。广义上的Cache指的是位于速度相差较大的两种硬件之间, 用于协调两者数据传输速度差异的结构。除了CPU与主存之间有Cache, 内存与硬盘之间也有Cache,乃至在硬

文章图片
#数据结构
    共 11 条
  • 1
  • 2
  • 请选择