logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【AI大模型】Qwen2技术解读

阿里巴巴发布Qwen2大模型系列技术报告摘要 阿里巴巴于2024年6月发布Qwen2大模型系列,实现从Qwen1.5到Qwen2的重大升级。该系列包含5个尺寸模型(0.5B至72B),主要创新包括: 全面采用GQA技术提升推理效率; 引入DCA分块注意力和YARN缩放机制,支持长达128K tokens的上下文处理; 采用细粒度MoE架构,优化专家路由机制; 预训练数据扩展至7万亿tokens,覆

文章图片
#人工智能#算法
【AI大模型】BERT微调文本分类任务实战

本文提供了完整的BERT文本分类微调指南,涵盖从数据准备到模型部署的全流程。主要内容包括:1) 数据加载与预处理,支持自定义和公开数据集;2) BERT模型初始化与训练配置,包含学习率、批次大小等参数设置;3) 评估指标计算与训练过程可视化;4) 模型推理示例;5) 性能优化技巧,如学习率调度、数据增强和处理类别不平衡;6) 常见问题解决方案。该指南采用HuggingFace生态工具,实现高效微调

文章图片
#人工智能#bert#分类 +2
【AI大模型】ComfyUI:Stable Diffusion可视化工作流

ComfyUI是一款基于节点式工作流的Stable Diffusion界面工具,通过可视化节点连接实现精细化的图像生成控制。其核心优势在于:1)直观展示完整生成流程,便于调试;2)模块化设计支持自由组合复杂工作流;3)可保存和共享工作流配置;4)智能缓存提升效率。典型工作流包含模型加载、文本编码、采样、解码等节点,还能扩展ControlNet、LoRA等高级功能。相比传统WebUI,ComfyUI

文章图片
#计算机视觉#人工智能#bert +1
【AI大模型】部署优化量化:FP16

FP16(半精度浮点数)是AI模型部署中的基础量化技术,将32位浮点降至16位,可减少50%内存占用并提升计算效率2-3倍。文章从原理、应用场景(推理/训练)、实现方案(PyTorch/TensorRT)到挑战应对(数值溢出/精度损失)进行全面解析,对比INT8/BF16等方案,指出FP16在平衡精度与速度上的优势。典型测试显示FP16能降低50%内存,加速2.5倍以上,建议新硬件优先采用BF16

文章图片
#pytorch#深度学习#人工智能 +2
【AI大模型】部署优化量化:INT8压缩模型

摘要:INT8量化技术将AI模型权重和激活值从FP32压缩至8位整数,实现4倍内存节省和2-4倍加速,是边缘计算和高并发场景的核心优化方案。文章深入解析量化原理(缩放因子/零点校准)、两种实现方案(训练后量化PTQ和量化感知训练QAT),以及工业级部署方案(TensorRT/TFLite)。关键挑战包括精度损失应对(分层量化/混合精度)和硬件兼容性问题,实测显示BERT-base模型INT8量化后

文章图片
#人工智能#深度学习#pytorch +2
【AI大模型】神经网络反向传播:核心原理与完整实现

反向传播是神经网络训练的核心算法,通过链式法则高效计算梯度,解决了参数规模爆炸带来的计算瓶颈。文章详细解析了反向传播的数学原理(链式法则、关键梯度计算),对比了前向/反向传播的计算复杂度,并提供了Python实现代码(含可视化)。同时介绍了激活函数导数、优化技巧(梯度检查、裁剪)、常见问题解决方案(梯度消失/爆炸、局部最优)及现代优化器(SGD、Adam)中的应用。工程实现要点包括向量化计算和GP

文章图片
#人工智能#神经网络#深度学习
【AI大模型】深度学习正则化技术:Batch Normalization (BatchNorm) 详解

BatchNorm(批量归一化)是一种深度学习优化技术,核心思想是对神经网络每层的输入进行标准化处理,使其均值0、方差1,从而解决内部协变量偏移(ICS)问题。它通过引入可学习的缩放参数γ和平移参数β保持网络表达能力,同时加速训练收敛,允许更高学习率,并减少对初始化的依赖。BatchNorm在训练时使用mini-batch统计量,推理时切换为全局统计量。虽然设计初衷并非正则化,但其基于mini-b

文章图片
#人工智能#python
【AI大模型】深入理解 Transformer 架构:自然语言处理的革命引擎

Transformer架构通过自注意力机制革新了NLP领域,解决了RNN和CNN在并行计算与长距离依赖上的瓶颈。其核心组件包括编码器-解码器结构、位置编码、多头注意力机制和前馈网络,实现了高效的全局上下文建模。Transformer催生了BERT、GPT等里程碑模型,推动了预训练大语言模型的发展。尽管面临计算复杂度高、数据需求大等挑战,Transformer仍是当前AI领域最重要的基础架构,持续引

文章图片
#人工智能#AI作画
【AI大模型】基于的Qwen模型的智能客服Discord机器人

本文介绍了如何安装CAMEL工具包并设置基于Qwen模型的AI助手。主要内容包括:1) 安装CAMEL及相关依赖;2) 配置Firecrawl和SambaNova API密钥;3) 使用Firecrawl爬取网页内容作为知识库;4) 创建基于Qwen模型的聊天代理;5) 集成Discord机器人功能;6) 添加Qdrant向量数据库支持以实现更智能的检索功能。通过逐步指导,展示了如何构建一个能理解

文章图片
#python#人工智能#开发语言 +1
【AI大模型】RAG系统组件:向量数据库(ChromaDB)

摘要:向量数据库是RAG系统的核心组件,专门用于高效存储和检索高维向量数据。ChromaDB作为轻量级开源向量数据库,具有简单易用、内存优先、支持元数据过滤等特性,适合快速构建RAG原型和中小规模应用。文章详细介绍了向量数据库的工作原理、ChromaDB的核心概念与操作流程,并分析了其优势与局限性,为开发者选择合适方案提供了参考。在RAG系统中,向量数据库负责知识库的语义检索,通过相似性搜索快速找

文章图片
#人工智能#数据库#pytorch +1
    共 13 条
  • 1
  • 2
  • 请选择