logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型微调发展现状

看下来,大模型微调领域范式创立时期是 2021-2023 年:LoRA (2021)、P-Tuning v2 (2021)、QLoRA (2023) 解决了大模型微调的根本问题:如何在有限硬件上高效且不牺牲太多性能地微调模型。是到23年之后,就没有大的变化,基本上都是在基石基础上缝缝补补的小改进。在工程领域,研究的更多的是把 QLoRA/LoRA 运行得更快、更稳定的问题。比如,FlashAtte

文章图片
#人工智能#知识图谱#学习 +1
一文了解大模型,智能体、AIGC,关系及应用

★大模型是一种基于深度学习技术,具有海量参数、强大的学习能力和泛化能力,能够处理和生成多种类型数据的人工智能模型。大模型通常指的是大规模的人工智能模型。参数量巨大:通常在数亿到数万亿级别(如GPT-3有1750亿参数)。训练数据量大:使用TB级文本、图像或多模态数据。计算资源需求高:依赖GPU/TPU集群训练,耗时长、成本高。通用性与泛化性:通过预训练适应多种任务(如文本生成、问答、翻译等)。大模

文章图片
#AIGC#深度学习#开发语言 +1
假如你从1月开始转型AI大模型应用开发

刚接触AI大模型不知道怎么学?收好这份3个月转型攻略👇🏻阶段一(1-2周)阶段二(3-4周)阶段三(5-8周)阶段四(9-12周)

文章图片
#人工智能#开发语言#深度学习
如何微调(Fine-tuning)大语言模型?

本文介绍了微调的基本概念,以及如何对语言模型进行微调。从 GPT3 到 ChatGPT、从GPT4 到 GitHub copilot的过程,微调在其中扮演了重要角色。什么是微调(fine-tuning)?微调能解决什么问题?什么是 LoRA?如何进行微调?本文将解答以上问题,并通过代码实例展示如何使用 LoRA 进行微调。

文章图片
#语言模型#人工智能#数据挖掘 +1
AI知识图谱:一张图看懂AI学习全路径

总结了一份AI相关的知识框架和学习路径:- 企业级应用学完这三个阶段,你将完成从AI新手到AI架构师的完整蜕变。作者能力有限,借此希望为想学习AI的朋友们提供一条系统性的学习路线,快速入门,拥抱AI!

文章图片
#人工智能#知识图谱#学习 +2
写给小白的大模型入门科普

多模态大模型,结合了NLP和CV的能力,通过整合并处理来自不同模态的信息(文本、图像、音频和视频等),可以处理跨领域的任务,例如文生图,文生视频、跨媒体搜索(通过上传图,搜索和图有关的文字描述)等。根据训练的数据类型和应用方向,我们通常会将大模型分为语言大模型(以文本数据进行训练)、音频大模型(以音频数据进行训练)、视觉大模型(以图像数据进行训练),以及多模态大模型(文本和图像都有)。大部分的大模

文章图片
#开发语言#人工智能#深度学习 +1
大模型工程师?门槛真没你想的那么高!

月薪 15K 的 Java 仔,转行大模型后直接翻倍。别不信,这事儿正在批量发生。有人说想搞大模型必须 985 硕士起步,还得发过顶会论文?。现实是:37 岁老程序员转型大模型应用开发,三个月拿下 offer;传统运维小哥靠 RAG 技术逆袭,薪资直接跳涨 80%。这行业正在上演现实版《屌丝逆袭》。

#人工智能#学习#数据挖掘 +2
DeepSeek-V3.2系列开源,性能直接对标Gemini-3.0-Pro

DeepSeek发布V3.2双模型:通用版推理达GPT-5水平,Speciale版斩获四大竞赛金牌。V3.2采用创新DSA稀疏注意力机制,推理成本降低3倍以上,在128k长文本任务中表现突出。团队投入超预训练10%的算力进行强化学习,并构建了包含1800+环境的Agent训练体系,使模型在未训练过的工具调用场景展现强大泛化能力。技术报告同时指出模型在知识广度和Token效率方面仍有提升空间。目前V

文章图片
#人工智能#AI
一文搞懂 | 大模型为什么出现幻觉?从成因到缓解方案

随着大模型(Large Language Models, 以下简称LLM)迅猛发展的浪潮中,幻觉(Hallucination)问题逐渐成为业界和学术界关注的焦点。所谓模型幻觉,指的是模型在生成内容时产生与事实不符、虚构或误导性的信息。比如,当你询问“世界上最长的河流是哪条?”模型可能一本正经地回答:“是亚马逊河,位于非洲”,而实际上亚马逊河在南美洲,同时也并不是最长的河流。

文章图片
#大数据#人工智能#前端 +3
大模型微调方法梳理:P-Tuning、Prefix Tuning、Adapter、LoRA

大模型精调方法综述:针对预训练大模型在特定任务表现不佳的问题,本文系统介绍了两种精调方案。全量参数调整虽能发挥模型潜力但成本高昂,更适合参数规模较小的模型。目前主流采用部分参数微调方法,重点分析了五种高效微调技术:1)Prompt Tuning通过添加可训练提示词优化输入;2)P-Tuning引入可训练编码Token加速收敛;3)P-Tuning v2改进为多层提示优化;4)Prefix Tuni

文章图片
#人工智能#语言模型#自然语言处理
    共 197 条
  • 1
  • 2
  • 3
  • 20
  • 请选择