
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了一套轻量化GPU监控方案,专为个人深度学习主机和家用NVIDIA显卡设计。针对企业级DCGM方案不适合消费级显卡的问题,推荐使用社区版nvidia_gpu_exporter工具,配合Prometheus和Grafana实现简单高效的监控。文章详细讲解了从环境准备、Docker部署到Grafana看板配置的全过程,重点解决了常见的数据空白、时区错位等问题,并提供了适配消费级显卡的专用看板I

SDD 全称,即规范驱动开发,是区别于传统敏捷、瀑布流的新型开发思想。传统开发是「先编码、后补文档、边写边改」,开发者 80% 精力耗费在手写编码、调试修 bug、对齐需求等重复工作上。而 SDD 模式彻底颠覆了开发者的工作重心,核心逻辑是先定规范、后做实现、迭代落地、全程可追溯。在传统开发模式中,程序员的核心价值是「写代码」,编码速度、语法熟练度、排错能力是核心考核指标。

Kubernetes 集群通信方案全解析:本文系统梳理 K8s 内外部通信的核心方案,明确区分管理流量(kube-apiserver)与业务流量的独立通道。重点解析无云厂商 LB 环境下的自建集群解决方案,涵盖 ClusterIP/Headless Service 等集群内通信方式,以及 NodePort、ExternalIPs 等集群外暴露方案。特别针对 Redis、MySQL、Kafka 等

本文详细介绍了在Windows+VirtualBox环境下部署OpenClaw的完整流程,重点解决了私有镜像仓库使用中的关键问题。通过配置本地静态存储(local-static-provisioner)、私有镜像同步、Nginx-Ingress部署等步骤,实现了完整的K8s集群环境搭建。特别针对嵌套路径镜像拉取卡顿问题,提供了包含hosts.toml和config.toml的双重配置解决方案,确保

模型文件本身不能直接用,需要通过“推理框架”加载模型、优化速度,然后提供接口服务,让我们能调用模型(比如对话、生成代码)。推理框架的核心作用,就是让模型“跑得更快、更稳定”,是连接模型文件和实际应用的关键,也是很多开发者(比如agent开发)最常接触的环节。

模型文件本身不能直接用,需要通过“推理框架”加载模型、优化速度,然后提供接口服务,让我们能调用模型(比如对话、生成代码)。推理框架的核心作用,就是让模型“跑得更快、更稳定”,是连接模型文件和实际应用的关键,也是很多开发者(比如agent开发)最常接触的环节。

在AI大模型普及的今天,很多人都想拥有一个本地可部署、隐私安全、无API费用的AI助手——既不用依赖云端服务,数据全程不离开自己的设备,又能满足日常学习、编程辅助、基础问答等需求。我用一台10年前的惠普暗夜精灵2游戏本(原本16GB内存,为折腾k8s特意升级到32GB),成功部署了Ollama+Qwen2.5:3b+Open WebUI本地AI系统,全程踩坑少、操作简单,适合新手入门,今天就把完整

本文介绍了中文RAG文本分块的核心技术与实践方法。重点解析了语义切分与固定切分的区别,推荐使用LangChain的RecursiveCharacterTextSplitter进行中文文本处理。详细说明了分块大小(chunk_size)、重叠比例(chunk_overlap)和中文专属分隔符(cn_separators)等关键参数的配置策略,并提供了适配中文场景的最佳实践方案。同时介绍了如何结合ti

摘要: 检索增强生成(RAG)技术通过结合检索与生成模块,解决大语言模型(LLM)知识局限性和幻觉问题。其核心分为离线索引构建(数据分块、向量化存储)和在线查询生成(检索相关文本、合成上下文并生成答案)。相比微调,RAG具有实时更新、低成本的优势,适用于企业知识库、客户支持等场景,但面临分块策略、检索精度等挑战。RAG通过“开卷考试”模式,将外部知识库与LLM结合,显著提升回答的准确性与时效性,成

插件/框架名称核心部署命令执行位置说明OpenCode插件,安装后自动加载工程技能OpenCode插件,安装后需执行omo init完成配置OpenSpec系统终端 / 项目目录项目级框架,不依赖OpenCode插件系统通过以上步骤,你的OpenCode已经不再是那个单纯的聊天机器人,而是一个拥有完整软件工程能力的“AI研发部门”。在2026年的今天,这不仅是效率的提升,更是开发范式的革新。







