logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【DeepSeek实战】基于 V4 的企业级 RAG 系统:私有知识库问答实战

大模型虽然强大,但缺乏企业私有知识。本文详解如何利用 DeepSeek V4 + LangChain + ChromaDB 构建企业级 RAG(检索增强生成)系统。通过文档切片、向量嵌入、语义检索等技术,实现对公司内部技术文档、API 手册的智能问答。实测在 10 万+ 文档场景下,检索准确率达到 89%,响应时间控制在 2s 以内。

文章图片
#java#开发语言
【DeepSeek实战】驾驭千亿参数:DeepSeek V4 Prompt 工程最佳实践

DeepSeek V4 拥有强大的逻辑推理与代码生成能力,但如何"用好"它是一门艺术。本文系统讲解结构化提示词设计、思维链 (CoT) 技巧、Few-shot Learning 以及 JSON Mode 的高级应用。通过实战案例展示如何将模糊需求转化为精准指令,使模型输出质量提升 80% 以上。

文章图片
【DeepSeek实战】驾驭千亿参数:DeepSeek V4 Prompt 工程最佳实践

DeepSeek V4 拥有强大的逻辑推理与代码生成能力,但如何"用好"它是一门艺术。本文系统讲解结构化提示词设计、思维链 (CoT) 技巧、Few-shot Learning 以及 JSON Mode 的高级应用。通过实战案例展示如何将模糊需求转化为精准指令,使模型输出质量提升 80% 以上。

文章图片
【AMD ROCm 实战】云端 AI 开发系列(四):多卡并行与分布式推理——8 张 MI300X 集群部署 Llama3-70B 极致性能优化

本文深入探讨在 8 张 AMD Instinct MI300X (总计 1.5TB HBM3 显存) 上构建大规模 GPU 集群,部署 Llama3-70B 并实现极致性能优化的完整流程。重点讲解 SGLang 分布式推理框架、模型并行 vs 数据并行策略选择,以及从 1 卡到 8 卡的线性扩展性测试。实测数据显示,8 卡集群可实现 420 tokens/s 的吞吐量,线性扩展比达 88%。

文章图片
#人工智能#性能优化
【AMD ROCm 实战】云端 AI 开发系列(三):vLLM 大语言模型部署优化——在 MI300X 上高效运行 Llama3-70B

本文深入探讨在 AMD Instinct MI300X (192GB HBM3) 上使用 vLLM 框架部署 Llama3-70B 大语言模型的完整流程。重点讲解连续批处理 (Continuous Batching) 技术、INT8/FP8 量化加速策略,以及 192GB 超大显存的极致利用方案。实测数据显示,MI300X 在 INT8 量化下可实现 52 tokens/s 的吞吐量,成本仅为 A

文章图片
#人工智能#语言模型#自然语言处理
【AMD ROCm 实战】云端 AI 开发系列(二):CUDA 到 ROCm 迁移实战——YOLOv8 目标检测模型全流程对标

本文详细记录将 YOLOv8 目标检测模型从 NVIDIA CUDA 环境迁移至 AMD ROCm 平台的完整流程。包含代码改造要点、算子兼容性测试、详细的性能对标数据(FPS、延迟、显存占用),以及 3 个典型报错的排查与修复方案。实测数据显示,MI300X 在保持 95%+ 精度的前提下,成本仅为 A100 的 40%。

文章图片
#人工智能#目标检测
【DeepSeek实战】DeepSeek V4 API 生产级接入:异步流式调用与高可用架构实战

本文深入探讨 DeepSeek V4 API 在企业级应用中的生产级接入方案。通过对比同步与异步客户端的性能差异,详解基于 SSE 的流式响应处理机制,并构建具备指数退避重试策略的高可用代理网关。实测在 100 并发场景下,异步流式方案可将首字延迟 (TTFT) 降低 60%,显著提升用户体验。

文章图片
2026 网红带货翻车全景数据报告:315 曝光背后的技术真相

本文基于 2026 年央视 315 晚会及市场监管总局公开数据,深度剖析网红带货翻车现象的技术本质。通过 Python 数据分析,揭示 6 万件违规案件背后的共性模式;利用 Mermaid 图表可视化赔偿金额分布、时间趋势、品类风险等关键维度。重点分析鹿哈(26.9亿赔偿)、东北雨姐(836万罚款)、相宜(身份造假)等典型案例的技术漏洞。为技术从业者提供数据驱动的直播电商风险防控思路,包含完整的数

文章图片
#数据分析
【AMD ROCm 实战】云端 AI 开发系列(一):在 ModelScope 上部署 MI300X 并运行第一个 PyTorch 程序

本文详细记录在魔搭创空间(ModelScope)申请 AMD Instinct MI300X 云实例、配置 ROCm 6.2 环境、安装 PyTorch for ROCm 并运行第一个 GPU 加速程序的完整流程。包含详细的截图、命令输出和性能基准测试数据。

文章图片
#人工智能#pytorch#python
告别重复造轮子:用 Codex 批量生成 Shell/Python 运维自动化脚本

本文深入讲解如何使用 AI 代码助手(Codex/Cursor/GitHub Copilot)批量生成高质量的 Shell 和 Python 运维自动化脚本,涵盖提示词工程、代码验证、批量生成技巧及企业级最佳实践。通过 5 个真实场景案例(日志分析、批量部署、监控告警、数据备份、安全加固),带你掌握 AI 辅助运维开发的全套技能。包含完整的 Prompt 模板、10 个提效技巧和常见问题解决方案,

文章图片
    共 24 条
  • 1
  • 2
  • 3
  • 请选择