logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型-多模态-【篇一:扩散模型】

本文系统介绍了扩散模型的核心内容与发展脉络。在基本原理部分,详细阐释了DDPM模型的前向/反向扩散过程、噪声预测优化目标及其与VAE的关联。发展历程方面,梳理了从基础模型到多模态生成的技术演进,包括采样加速、CLIP引导等关键突破。应用领域覆盖计算机视觉、时序预测、NLP及科学计算等多个场景。实战环节提供从零构建MNIST扩散模型、Diffusers库实现、图像生成优化等具体指导,特别介绍了Sta

文章图片
大模型-训练-【篇三:微调】

PEFT(参数高效微调)是一种在不调整全部模型参数的情况下将预训练语言模型适配下游任务的技术库。它通过微调少量参数显著降低计算和存储成本,同时保持与全参数微调相当的性能。主流方法包括AdapterTuning、PrefixTuning、PromptTuning、LoRA等,其中LoRA通过低秩矩阵模拟全参数微调,在推理时无额外计算开销。P-Tuning及其改进版本通过多层提示编码提升小模型表现。这

文章图片
#人工智能
大模型-训练-【篇三:微调】

PEFT(参数高效微调)是一种在不调整全部模型参数的情况下将预训练语言模型适配下游任务的技术库。它通过微调少量参数显著降低计算和存储成本,同时保持与全参数微调相当的性能。主流方法包括AdapterTuning、PrefixTuning、PromptTuning、LoRA等,其中LoRA通过低秩矩阵模拟全参数微调,在推理时无额外计算开销。P-Tuning及其改进版本通过多层提示编码提升小模型表现。这

文章图片
#人工智能
模型系列(篇五)-DeepSeek

涵盖DeepSeek模型部署、评测、复现及核心技术解析。重点包括:1)DeepSeek-R1模型的本地/云端部署方案及硬件配置指南;2)开源复现项目进展,包括基于Qwen架构的复现实践;3)核心技术解析,如混合专家模型(MoE)、知识蒸馏、强化学习算法GRPO等;4)生态工具链更新,如Zotero文献助手、KTransformer推理优化;5)性能评测显示1.5B参数模型数学能力超越GPT-4o。

文章图片
大模型-就业方向

本文介绍了大模型就业方向:基座模型训练、大模型微调、大模型开发、大模型推理部署、多模态大模型等

文章图片
#深度学习#人工智能
大模型-就业方向

本文介绍了大模型就业方向:基座模型训练、大模型微调、大模型开发、大模型推理部署、多模态大模型等

文章图片
#深度学习#人工智能
大模型-幻觉

大模型幻觉是AI生成与事实不符内容的现象,在创作场景中可能有益,但在医疗等专业领域需避免。幻觉可分为语境冲突性和事实冲突性两类,产生原因包括数据缺陷、训练不当和生成策略问题。评估方法包括生成事实陈述和判别式基准评估。缓解策略主要有:构建高质量微调数据、强化诚实对齐、优化解码策略和外挂知识库增强。需注意大模型无法自知其知识边界,现有方法只能缓解而无法根除幻觉。不同应用场景需采取针对性措施,知识图谱等

文章图片
#人工智能#知识图谱
大模型-幻觉

大模型幻觉是AI生成与事实不符内容的现象,在创作场景中可能有益,但在医疗等专业领域需避免。幻觉可分为语境冲突性和事实冲突性两类,产生原因包括数据缺陷、训练不当和生成策略问题。评估方法包括生成事实陈述和判别式基准评估。缓解策略主要有:构建高质量微调数据、强化诚实对齐、优化解码策略和外挂知识库增强。需注意大模型无法自知其知识边界,现有方法只能缓解而无法根除幻觉。不同应用场景需采取针对性措施,知识图谱等

文章图片
#人工智能#知识图谱
大模型-Tokenizer

本文系统介绍了自然语言处理中的分词粒度分类,重点解析了Subword级别的四种主流分词方法:BPE(字节对编码)、BBPE(字节级BPE)、WordPiece和Unigram。详细对比了各方法的原理、优缺点及应用场景,如WordPiece在BERT模型中的应用优势。同时介绍了谷歌开源工具包SentencePiece的功能特性,包括多语言支持、可逆分词等,并指出其对中文处理的局限性。文章提供了Sen

文章图片
#人工智能#nlp
大模型-Tokenizer

本文系统介绍了自然语言处理中的分词粒度分类,重点解析了Subword级别的四种主流分词方法:BPE(字节对编码)、BBPE(字节级BPE)、WordPiece和Unigram。详细对比了各方法的原理、优缺点及应用场景,如WordPiece在BERT模型中的应用优势。同时介绍了谷歌开源工具包SentencePiece的功能特性,包括多语言支持、可逆分词等,并指出其对中文处理的局限性。文章提供了Sen

文章图片
#人工智能#nlp
    共 37 条
  • 1
  • 2
  • 3
  • 4
  • 请选择