logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

YOLOv8 超详细小白教程(毕设必看)——Windows、PyCharm +conda+ LabelImg +GPU训练自己数据集训练

本文提供了一份完整的YOLOv8目标检测模型训练教程,涵盖从环境配置到模型训练的完整流程。教程详细介绍了PyCharm安装、conda环境搭建、GPU驱动配置(CUDA/cuDNN)、LabelImg数据标注工具使用,以及如何准备自定义数据集和训练YOLOv8模型。特别针对Windows系统用户,给出了详细的路径设置和常见问题解决方案。文章还包含了模型验证和推理方法,并提供了训练参数调整建议。本教

文章图片
#pycharm
一文搞懂 Docker 与 Kubernetes:从容器到集群的进化之路

Docker与Kubernetes核心解析 Docker通过镜像打包应用及环境,实现"一次构建,到处运行",解决开发与生产环境差异问题。其轻量化容器启动快、隔离性强,适合微服务架构。Kubernetes(K8s)作为容器编排系统,管理大规模容器集群,提供自动扩缩容、服务发现、滚动升级等能力。两者关系互补:Docker负责单容器运行,K8s调度集群资源。典型应用场景包括微服务部署

文章图片
#docker#kubernetes#容器
TensorRT-LLM 深度解析:解锁大模型极致推理性能

TensorRT-LLM:NVIDIA的大模型推理加速利器 摘要:TensorRT-LLM是NVIDIA推出的高性能大语言模型推理框架,通过三级架构设计实现极致优化:1)Pythonic模型定义层保持开发灵活性;2)AOT编译层实现算子融合与内核调优;3)运行时系统支持动态批处理。核心优势包括:支持H100专属FP8量化,吞吐量达6000+tokens/s;分页KV缓存将显存碎片率从35%降至5%

文章图片
#性能优化#nlp#人工智能
TensorRT-LLM 深度解析:解锁大模型极致推理性能

TensorRT-LLM:NVIDIA的大模型推理加速利器 摘要:TensorRT-LLM是NVIDIA推出的高性能大语言模型推理框架,通过三级架构设计实现极致优化:1)Pythonic模型定义层保持开发灵活性;2)AOT编译层实现算子融合与内核调优;3)运行时系统支持动态批处理。核心优势包括:支持H100专属FP8量化,吞吐量达6000+tokens/s;分页KV缓存将显存碎片率从35%降至5%

文章图片
#性能优化#nlp#人工智能
AI-Agent 深度科普:从概念到架构、应用与未来趋势

本文系统梳理了AIAgent(智能体)的核心概念与发展趋势。AIAgent是基于大语言模型(LLM)的智能决策单元,具备感知环境、规划任务、执行行动等能力,可调用工具、访问知识库完成复杂任务。其核心架构包括感知、推理、工具调用、记忆、执行和反馈等模块。主要类型有单智能体、多智能体协作和人机协作模式。关键能力包括检索增强、记忆机制、任务拆解等。文章分析了Auto-GPT等典型案例,提出角色定义、监测

文章图片
#人工智能#大数据
大模型科普专栏 ·从 KV Cache 到 VLLM 的 PageAttention 图解大模型推理加速黑科技

摘要:大模型推理速度直接影响用户体验和部署成本。VLLM通过三项核心技术大幅提升推理效率:1)KVCache机制避免重复计算历史token;2)PageAttention采用操作系统分页思路管理显存,将碎片率降至4%;3)KVBlockSharing实现多请求共享前缀计算,使100并发客服机器人显存降低5倍。实测显示,LLaMA-2-13B模型吞吐提升24倍,显存占用从74GB降至28GB。这些优

文章图片
#科技#人工智能#nlp
大模型科普专栏·第二章:算力、数据、推理、加速——解密“大模型”的幕后故事

大模型训练是典型的资本密集型技术,以GPT-4为例需要2.5万张A100显卡连续运行百天,算力成本超6300万美元。核心成本构成包括:1)硬件投入(单张A100售价超10万元);2)海量数据清洗(GPT-3消耗45TB数据);3)惊人能耗(万卡集群功耗达4MW);4)复杂工程调试。推理阶段同样面临显存挑战,70B参数模型加载需140GB显存,长文本处理更需额外32GB。为降本增效,业界采用知识蒸馏

文章图片
#人工智能#深度学习#机器学习
TensorRT 量化第二课:对称量化 vs 非对称量化(原理 + 公式 + 代码全解析)谁才是性能王者?

pass对称量化:零点为 0,计算快,适合权重。非对称量化:零点可调,适合非零中心分布(如 ReLU 激活)。TensorRT 提供 Calibrator,支持两种量化方式,可灵活选择。💡下一课预告:带大家搞懂直方图校准 + KL 散度—— 把极端值(outlier)踢出去,scale 选得更聪明。👉 如果文章帮到你,记得点个「赞」👍 支持一下,评论区欢迎贴代码/交流问题,我会在线答疑~#

文章图片
#人工智能#python#pytorch
【模型部署必备神器】3 分钟把 YOLOv8 网络「拆」给你看!——Netron 下载+可视化终极指南(附高清结构图)

本文介绍了使用Netron工具可视化YOLOv8模型结构的详细指南。Netron是一款支持30+框架的模型可视化工具,能够清晰展示模型输入输出、算子节点等细节。文章提供了Netron的下载安装方法(网页版/离线版),并详细讲解了如何将YOLOv8模型导出为ONNX格式(包括静态和动态导出方式)。通过Netron可以直观查看YOLOv8的输入节点(1,3,640,640)、主干网络、检测头以及输出节

文章图片
#人工智能#python#数据可视化 +1
AI-Agent 深度科普:从概念到架构、应用与未来趋势

本文系统梳理了AIAgent(智能体)的核心概念与发展趋势。AIAgent是基于大语言模型(LLM)的智能决策单元,具备感知环境、规划任务、执行行动等能力,可调用工具、访问知识库完成复杂任务。其核心架构包括感知、推理、工具调用、记忆、执行和反馈等模块。主要类型有单智能体、多智能体协作和人机协作模式。关键能力包括检索增强、记忆机制、任务拆解等。文章分析了Auto-GPT等典型案例,提出角色定义、监测

文章图片
#人工智能#大数据
    共 27 条
  • 1
  • 2
  • 3
  • 请选择