logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

openEuler集群 Chrony 时间同步实战:从零构建高精度分布式时钟体系

本文详细介绍了三节点欧拉集群的时间同步方案实施过程。通过Chrony服务构建层次化时间同步架构,主节点Euler01同步外部时间源,两个从节点Euler02、Euler03作为客户端。文章包含完整的配置流程,从网络连通性测试、防火墙配置到Chrony服务部署,并重点解析了chronyc监控工具的使用方法及关键状态参数。该方案实现了微秒级同步精度,满足分布式系统对时间一致性的严苛要求,同时提供了性能

文章图片
#架构#服务器#运维
在 KubeSphere 上部署 AI 大模型 Ollama

本文详细介绍了在openEuler系统上通过KubeSphere和Kubernetes部署GPU加速AI应用的全流程。首先使用KubeKey为集群扩容GPU节点,然后安装NVIDIA GPU Operator实现GPU资源管理。在验证GPU可用性后,部署Ollama框架并成功运行1.5B参数的Qwen2模型进行推理测试。整个过程展示了从硬件配置到模型部署的完整云原生GPU管理链路,为企业级AI应用

文章图片
#贪心算法#算法
硬核拆解_当 TF Serving 遇上鲲鹏 920,这波物理外挂我是服气的

本文探讨了在ARM架构(如鲲鹏920)上优化TensorFlow Serving性能的实践。通过分析BoostKit开源项目中的tensorflow-serving补丁,揭示了如何通过编译优化和线程亲和性设置来提升推理性能。文章详细介绍了补丁的核心技术:1)针对性编译选项开启ARM指令集优化;2)将gRPC通信线程与计算线程隔离绑定到不同CPU核心,避免缓存失效。实践部分展示了如何打补丁、编译优化

文章图片
#服务器#云计算#架构
昇腾实战_DeepSeek-R1-671B W8A8 昇腾NPU双机部署实战指南

本文详细介绍了在昇腾Atlas 800I A2服务器上部署DeepSeek-R1-671B大模型的实战过程。采用vLLM-Ascend框架,通过W8A8量化和PagedAttention技术,在双机16卡环境下实现高效推理。重点包括:硬件选型考量、环境配置、容器启动参数、关键环境变量设置以及主副节点启动流程。特别强调了网络配置、显存优化和并行策略等关键技术点,为大规模模型部署提供了可复现的解决方案

文章图片
#架构#服务器
昇腾实战_DeepSeek-R1-671B W8A8 昇腾NPU双机部署实战指南

本文详细介绍了在昇腾Atlas 800I A2服务器上部署DeepSeek-R1-671B大模型的实战过程。采用vLLM-Ascend框架,通过W8A8量化和PagedAttention技术,在双机16卡环境下实现高效推理。重点包括:硬件选型考量、环境配置、容器启动参数、关键环境变量设置以及主副节点启动流程。特别强调了网络配置、显存优化和并行策略等关键技术点,为大规模模型部署提供了可复现的解决方案

文章图片
#架构#服务器
昇腾实战_DeepSeek-R1-671B W8A8 昇腾NPU双机部署实战指南

本文详细介绍了在昇腾Atlas 800I A2服务器上部署DeepSeek-R1-671B大模型的实战过程。采用vLLM-Ascend框架,通过W8A8量化和PagedAttention技术,在双机16卡环境下实现高效推理。重点包括:硬件选型考量、环境配置、容器启动参数、关键环境变量设置以及主副节点启动流程。特别强调了网络配置、显存优化和并行策略等关键技术点,为大规模模型部署提供了可复现的解决方案

文章图片
#架构#服务器
算力点白给!在 AI Ping 免费体验 GLM-4.7 与 MiniMax M2.1 顶尖算力

AI Ping平台最新上线GLM-4.7和MiniMax M2.1两款旗舰大模型,提供免费算力体验。GLM-4.7专为复杂编程任务设计,具备"持久化思考"能力,擅长跨文件代码重构;MiniMax M2.1采用MoE架构,推理速度快2倍,适合长链条任务执行。用户可通过AI Ping统一接口快速接入,支持VSCode等开发工具。测试显示,GLM-4.7能自动完成C++项目重构,Mi

文章图片
#人工智能#大数据
在 KubeSphere 上部署 AI 大模型 Ollama

本文详细介绍了在openEuler系统上通过KubeSphere和Kubernetes部署GPU加速AI应用的全流程。首先使用KubeKey为集群扩容GPU节点,然后安装NVIDIA GPU Operator实现GPU资源管理。在验证GPU可用性后,部署Ollama框架并成功运行1.5B参数的Qwen2模型进行推理测试。整个过程展示了从硬件配置到模型部署的完整云原生GPU管理链路,为企业级AI应用

文章图片
#贪心算法#算法
解锁 Vibe Coding 无限畅享模式:如何用 AI Ping + Cline 打造“全模型”开发流

在‘百模大战’的当下,对于我们开发者而言,最头疼的往往不是如何写提示词,而是如何优雅地管理和切换不同的模型。今天对接了 MiniMax,明天由于业务需求又要换成 GLM,繁琐的接口文档、不统一的计费标准以及分散的 API Key 管理,常常让人在写代码前就耗尽了精力。那么,有没有一种方式,能让我们只用一套标准,就随意调度各大厂商的顶级能力?今天就给大家推荐一个能彻底解放生产力的解决方案AI Pin

文章图片
#人工智能#大数据
在 KubeSphere 上部署 AI 大模型 Ollama

本文详细介绍了在openEuler系统上通过KubeSphere和Kubernetes部署GPU加速AI应用的全流程。首先使用KubeKey为集群扩容GPU节点,然后安装NVIDIA GPU Operator实现GPU资源管理。在验证GPU可用性后,部署Ollama框架并成功运行1.5B参数的Qwen2模型进行推理测试。整个过程展示了从硬件配置到模型部署的完整云原生GPU管理链路,为企业级AI应用

文章图片
#贪心算法#算法
    共 33 条
  • 1
  • 2
  • 3
  • 4
  • 请选择