logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

第10章:工具与框架地图

LLMOps技术栈概述 本章系统梳理了LLMOps领域的技术栈,呈现为五层架构: 基础设施层:Kubernetes/Prometheus提供基础支撑 数据层:Milvus/Qdrant等向量数据库处理检索任务 训练层:Transformers/PEFT/DeepSpeed实现高效微调 推理层:vLLM/TensorRT-LLM等优化推理性能 应用层:LangChain/LlamaIndex等框架实

文章图片
第8章:DevOps/SRE实践

文章摘要: 本章介绍了DevOps/SRE在AI系统中的应用实践,主要包括四个方面:1) LLMOps CI/CD全流程设计,展示从代码提交到生产发布的完整流水线;2) 代码质量管理体系,包含代码检查流程和分层测试策略;3) 容器化与镜像管理技术,重点是多阶段构建和优化方法;4) Kubernetes部署方案,示例展示了GPU节点的资源配置。这些实践通过Mermaid流程图和代码示例,系统性地呈现

文章图片
第7章:推理与高性能部署

本文摘要: 本章系统介绍了大模型推理服务部署与性能优化的关键技术。首先对比了不同Serving架构形态和通信协议选择,展示了典型部署架构。重点分析了vLLM、TGI等主流推理引擎特性,详细解读了PagedAttention和Continuous Batching等核心技术。从KV Cache优化、批处理策略、请求调度和模型并行四个维度阐述了性能优化方法,包括Prefix Caching、动态批处理

文章图片
第2章:核心能力与工作原理

生成式AI核心技术解析 本文系统阐述了生成式AI的核心工作机制,重点探讨了三大关键技术: 生成式推理机制:详细分解了从输入到输出的全流程,包括Embedding层、Transformer层和多种解码策略(Greedy/Beam Search/Sampling)。特别介绍了KV Cache和Speculative Decoding两种优化技术,可显著提升推理效率。 长上下文管理:分析了处理长文本时的

文章图片
第0章:学习目标与前置知识

本文系统性地介绍了LLMOps(大语言模型运维)的学习目标与前置知识体系。主要内容包括: 学习目标:构建从数据工程到SRE保障的全链路能力,涵盖10个核心能力域,并提供了分阶段的能力成长路径(初级到专家四个阶段)。 六大前置知识领域: Linux系统管理(服务器运维、性能调优) 容器与Kubernetes(GPU调度、服务部署) 网络基础(负载均衡、安全协议) GPU编程(CUDA、显存管理) P

文章图片
第1章:Knative 概述

Knative是一个基于Kubernetes的开源平台,旨在简化云原生应用的构建、部署和管理。它将复杂的容器编排抽象为简单的开发者体验,提供自动扩缩容、流量管理和事件驱动架构等核心功能。与原生Kubernetes相比,Knative显著降低了配置复杂度,支持缩容到零和冷启动处理,并原生集成了蓝绿/金丝雀部署能力。项目由Google发起,目前已成为CNCF生态中的重要组成部分,广泛应用于微服务、AI

文章图片
#knative#云原生
13. 未来趋势

趋势影响时间线AIOps智能化运维2024-2026GitOps声明式交付已广泛应用提升开发者体验2024-2025FinOps成本优化持续发展边缘计算分布式架构2025-2027可观测性 3.0统一监控2024-2025。

文章图片
#ci/cd
到底了