logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

本地部署 Cloudreve 云盘?加上cpolar这样用能远程访问超方便

本文介绍了如何通过Docker部署Cloudreve云盘系统,并利用cpolar内网穿透工具实现远程访问。首先在Linux系统安装Docker并拉取Cloudreve镜像,创建容器后完成本地访问测试。接着安装cpolar创建临时公网隧道,解决局域网访问限制。最后通过保留二级子域名获得固定公网地址,实现永久远程访问Cloudreve云盘,方便随时随地管理文件。整个过程简单高效,既保留了本地存储优势,

文章图片
#服务器#运维#人工智能 +1
告别云端依赖!ComfyUI本地化视频生成实战教程+cpolar实战

本文介绍了如何搭建ComfyUI+Wan2.1本地视频生成环境,实现高效AI创作。通过节点式编辑,复杂特效制作变得像搭积木一样简单。文章详细讲解了软件准备(包括ComfyUI、文本编码器、VAE和Wan2.1模型下载)、整合配置步骤以及本地运行测试方法。特别强调了该方案的低显存需求(仅8GB)和团队协作优势,通过cpolar实现远程协作,让多人可以实时同步修改项目。这套"本地化创作+全球

文章图片
#python#开源#AIGC
什么是TPU?谷歌如何在AI算力领域挑战英伟达的霸主地位

谷歌TPU挑战英伟达AI算力霸主地位 摘要:谷歌自主研发的TPU(Tensor Processing Unit)正成为英伟达GPU在AI算力领域的有力竞争者。TPU采用专为深度学习优化的脉动阵列架构,通过简化设计突破冯·诺依曼瓶颈,在能效比上实现"降维打击"。最新TPU v7性能大幅提升,BF16算力达4614TFLOPS,192GB HBM显存与英伟达B200相当,能效比提升

文章图片
#人工智能#智能电视#AIGC
在openEuler操作系统中多样性算力支持与性能压力测试操作

摘要 openEuler作为开源操作系统,全面支持x86、Arm、RISC-V等多样算力架构,并深度适配AI加速器、DPU等异构计算单元。本文通过构建x86与Arm双测试环境,采用标准化工具(如stress、fio、iperf3)对CPU、I/O、网络及GPU进行跨架构压力与并发测试。实测表明,openEuler在128核Arm服务器上可实现100% CPU负载,NVMe SSD达17.6万读IO

文章图片
#压力测试#运维#linux +3
在openEuler操作系统中多样性算力支持与性能压力测试操作

摘要 openEuler作为开源操作系统,全面支持x86、Arm、RISC-V等多样算力架构,并深度适配AI加速器、DPU等异构计算单元。本文通过构建x86与Arm双测试环境,采用标准化工具(如stress、fio、iperf3)对CPU、I/O、网络及GPU进行跨架构压力与并发测试。实测表明,openEuler在128核Arm服务器上可实现100% CPU负载,NVMe SSD达17.6万读IO

文章图片
#压力测试#运维#linux +3
在openEuler操作系统中多样性算力支持与性能压力测试操作

摘要 openEuler作为开源操作系统,全面支持x86、Arm、RISC-V等多样算力架构,并深度适配AI加速器、DPU等异构计算单元。本文通过构建x86与Arm双测试环境,采用标准化工具(如stress、fio、iperf3)对CPU、I/O、网络及GPU进行跨架构压力与并发测试。实测表明,openEuler在128核Arm服务器上可实现100% CPU负载,NVMe SSD达17.6万读IO

文章图片
#压力测试#运维#linux +3
在openEuler部署一个AI模型,从测试到上线的完整实践

AI模型部署实践:从openEuler平台到生产环境 本文分享了在openEuler 25.09上构建AI模型部署平台的全过程。作者针对模型从训练到生产部署的常见问题,设计了一套完整的解决方案。环境配置阶段,通过Python虚拟环境安装核心组件(PyTorch、Flask、MLflow等),并规划了清晰的目录结构。核心部分是智能模型管理器,实现了模型版本控制、元数据管理、自动加载等功能,支持多种模

文章图片
#人工智能#运维#linux +3
在openEuler操作系统中多样性算力支持与性能压力测试操作

摘要 openEuler作为开源操作系统,全面支持x86、Arm、RISC-V等多样算力架构,并深度适配AI加速器、DPU等异构计算单元。本文通过构建x86与Arm双测试环境,采用标准化工具(如stress、fio、iperf3)对CPU、I/O、网络及GPU进行跨架构压力与并发测试。实测表明,openEuler在128核Arm服务器上可实现100% CPU负载,NVMe SSD达17.6万读IO

文章图片
#压力测试#运维#linux +3
无需云服务器,本地 AI 工作流也能随时随地用 ——Flowise+cpolar 实用指南

本文介绍了Flowise可视化LLM工作流工具与cpolar内网穿透的搭配使用方案。主要内容包括: Docker本地部署Flowise的方法及访问测试 Ubuntu安装cpolar内网穿透工具 配置Flowise公网访问地址 设置固定二级子域名实现稳定远程访问 该方案实现了: 无需公网IP和云服务器 突破局域网访问限制 支持跨设备跨网络协作 固定域名便于长期使用 通过简单配置即可实现本地Flowi

文章图片
#服务器#运维#人工智能 +4
本地部署 Stable Diffusion3.5!cpolar让远程访问很简单!

摘要:本文介绍了Stable Diffusion3.5 AI绘图工具的本地部署与远程使用方法。该工具支持通过文本生成高质量图像,推荐8G以上显存配置。文章详细说明了ComfyUI的安装流程、中文语言包配置,以及Stable Diffusion3.5模型的下载步骤,重点演示了文生图功能的具体操作。通过结合cpolar实现公网访问,用户可突破局域网限制,实现随时随地远程操作。教程包含图文指引和视频链接

文章图片
#运维#linux#开发语言 +3
    共 13 条
  • 1
  • 2
  • 请选择