
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文详细介绍了三节点欧拉集群的时间同步方案实施过程。通过Chrony服务构建层次化时间同步架构,主节点Euler01同步外部时间源,两个从节点Euler02、Euler03作为客户端。文章包含完整的配置流程,从网络连通性测试、防火墙配置到Chrony服务部署,并重点解析了chronyc监控工具的使用方法及关键状态参数。该方案实现了微秒级同步精度,满足分布式系统对时间一致性的严苛要求,同时提供了性能

本文详细介绍了在openEuler系统上通过KubeSphere和Kubernetes部署GPU加速AI应用的全流程。首先使用KubeKey为集群扩容GPU节点,然后安装NVIDIA GPU Operator实现GPU资源管理。在验证GPU可用性后,部署Ollama框架并成功运行1.5B参数的Qwen2模型进行推理测试。整个过程展示了从硬件配置到模型部署的完整云原生GPU管理链路,为企业级AI应用

本文探讨了在ARM架构(如鲲鹏920)上优化TensorFlow Serving性能的实践。通过分析BoostKit开源项目中的tensorflow-serving补丁,揭示了如何通过编译优化和线程亲和性设置来提升推理性能。文章详细介绍了补丁的核心技术:1)针对性编译选项开启ARM指令集优化;2)将gRPC通信线程与计算线程隔离绑定到不同CPU核心,避免缓存失效。实践部分展示了如何打补丁、编译优化

本文详细介绍了在昇腾Atlas 800I A2服务器上部署DeepSeek-R1-671B大模型的实战过程。采用vLLM-Ascend框架,通过W8A8量化和PagedAttention技术,在双机16卡环境下实现高效推理。重点包括:硬件选型考量、环境配置、容器启动参数、关键环境变量设置以及主副节点启动流程。特别强调了网络配置、显存优化和并行策略等关键技术点,为大规模模型部署提供了可复现的解决方案

本文详细介绍了在昇腾Atlas 800I A2服务器上部署DeepSeek-R1-671B大模型的实战过程。采用vLLM-Ascend框架,通过W8A8量化和PagedAttention技术,在双机16卡环境下实现高效推理。重点包括:硬件选型考量、环境配置、容器启动参数、关键环境变量设置以及主副节点启动流程。特别强调了网络配置、显存优化和并行策略等关键技术点,为大规模模型部署提供了可复现的解决方案

本文详细介绍了在昇腾Atlas 800I A2服务器上部署DeepSeek-R1-671B大模型的实战过程。采用vLLM-Ascend框架,通过W8A8量化和PagedAttention技术,在双机16卡环境下实现高效推理。重点包括:硬件选型考量、环境配置、容器启动参数、关键环境变量设置以及主副节点启动流程。特别强调了网络配置、显存优化和并行策略等关键技术点,为大规模模型部署提供了可复现的解决方案

AI Ping平台最新上线GLM-4.7和MiniMax M2.1两款旗舰大模型,提供免费算力体验。GLM-4.7专为复杂编程任务设计,具备"持久化思考"能力,擅长跨文件代码重构;MiniMax M2.1采用MoE架构,推理速度快2倍,适合长链条任务执行。用户可通过AI Ping统一接口快速接入,支持VSCode等开发工具。测试显示,GLM-4.7能自动完成C++项目重构,Mi

本文详细介绍了在openEuler系统上通过KubeSphere和Kubernetes部署GPU加速AI应用的全流程。首先使用KubeKey为集群扩容GPU节点,然后安装NVIDIA GPU Operator实现GPU资源管理。在验证GPU可用性后,部署Ollama框架并成功运行1.5B参数的Qwen2模型进行推理测试。整个过程展示了从硬件配置到模型部署的完整云原生GPU管理链路,为企业级AI应用

在‘百模大战’的当下,对于我们开发者而言,最头疼的往往不是如何写提示词,而是如何优雅地管理和切换不同的模型。今天对接了 MiniMax,明天由于业务需求又要换成 GLM,繁琐的接口文档、不统一的计费标准以及分散的 API Key 管理,常常让人在写代码前就耗尽了精力。那么,有没有一种方式,能让我们只用一套标准,就随意调度各大厂商的顶级能力?今天就给大家推荐一个能彻底解放生产力的解决方案AI Pin

本文详细介绍了在openEuler系统上通过KubeSphere和Kubernetes部署GPU加速AI应用的全流程。首先使用KubeKey为集群扩容GPU节点,然后安装NVIDIA GPU Operator实现GPU资源管理。在验证GPU可用性后,部署Ollama框架并成功运行1.5B参数的Qwen2模型进行推理测试。整个过程展示了从硬件配置到模型部署的完整云原生GPU管理链路,为企业级AI应用








