logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一文详解大模型微调与小模型训练

无论是大模型微调还是小模型训练,都是 AI应用优化的重要手段。通过合理选择预训练模型、精心准备数据集科学设置训练参数以及不断迭代优化,我们可以不断提升 AI 模型的性能和应用效果。未来,随着技术的不断进步和应用场景的不断拓展,我们有理由相信 AI 模型优化将为我们带来更多惊喜和可能。

文章图片
#自然语言处理
人工智能的新篇章:深入了解大型语言模型(LLM)的应用与前景_llm情绪分析

LLM(Large Language Model)技术是一种基于深度学习的自然语言处理技术,旨在训练能够处理和生成自然语言文本的大型模型。①人工智能/大模型学习路线②AI产品经理入门指南③大模型方向必读书籍PDF版④超详细海量大模型实战项目⑤LLM大模型系统学习教程⑥640套-AI大模型报告合集⑦从0-1入门大模型教程视频⑧AGI大模型技术公开课名额。

文章图片
#人工智能#语言模型#自然语言处理 +2
LLM不会CoT隐性推理,只会显性推理!

这篇文章探讨了大型语言模型(LLMs)在隐式推理中的表现,发现尽管隐式推理理论上更为高效,但实际上并不等同于显式推理链(CoT)。研究表明,LLMs在进行隐式推理时并未真正进行逐步计算,而是依赖于经验和直觉,这使得其推理过程不稳定且不可靠。文章通过实验验证了这一点,并强调了显式CoT方法在处理复杂任务时的必要性。

文章图片
#语言模型#自然语言处理#人工智能
LangChain之内存记忆 ( Memory )

大多数LLM应用都具有对话功能,如聊天机器人,记住先前的交互非常关键。对话的重要一环是能够引用之前提及的信息,这些信息需要进行存储,因此将这种存储过去交互信息的能力称为记忆 ( Memory )。默认情况下,链式模型和代理模型都是无状态的,这意味着它们会独立处理每个传入的查询,类似于底层的LLMs和聊天模型本身的处理方式。当有了记忆之后,每个链都定义了一些需要特定输入的核心执行逻辑。其中一些输入直

文章图片
#microsoft#人工智能#学习 +1
人工智能-鲁棒性(通俗易懂)

在机器学习中,鲁棒性(Robustness)是指模型对于异常数据或噪声的抗干扰能力。一个鲁棒性较强的模型能够在面对未知的数据或者数据中存在噪声或异常值时,仍能保持。鲁棒性是一个重要的性能指标,因为现实世界中的数据往往包含各种各样的异常情况和噪声。不理解?不清楚?OK 笔者举个例子:人工智能的鲁棒性其实就像是一个经验丰富的船长,在狂风巨浪中依然能够稳稳地驾驶船只。想象一下,这位船长在海上航行时,突然

文章图片
#人工智能#语言模型#自然语言处理 +2
LangChain实战:利用LangChain SQL Agent和GPT进行文档分析和交互

GPT版本0125 可以完美地提供JSON格式的数据。OpenAI致力于增强函数调用,并确保它符合用于创建可供计算机读取格式的标准用例。如果设计目标正是针对这种情况,并且仅供企业内部员工使用,那么我会使用SQLAgent 来处理企业数据库!但是我觉得允许LLM模型自主执行查询依然风险太大了。那么,我们该如何学习大模型?作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。至于能学习到多少就

文章图片
#人工智能#机器学习
复旦大学首本大模型中文书太厉害啦!【大模型书籍推荐】

大语言模型入门与实践》是一本值得我们每一个人去阅读的书籍。它不仅为我们提供了全面、深入的大语言模型知识,还分享了作者团队在NLP领域的宝贵经验和感悟。这本书的发布,将引领我们走向自然语言处理的新纪元,让我们共同期待这个美好的未来!

文章图片
#linux#服务器#transformer +3
大模型系列——解读RAG_向量数据库 top k

RAG即检索增强生成,为 LLM 提供了从某些数据源检索到的信息,并基于此修正生成的答案。RAG 基本上是 Search + LLM 提示,可以通过大模型回答查询,并将搜索算法所找到的信息作为大模型的上下文。查询和检索到的上下文都会被注入到发送到 LLM 的提示语中。嵌入式搜索引擎可以通过 Faiss 来实现,向量搜索领域成为了RAG的一个助力。像pinecone 这样的向量数据库可以构建开源搜索

文章图片
#数据库#人工智能
LongCite:让大模型精准找到 {引用}

超长的上下文窗口已经成为最新一代语言模型的标配,例如GLM-4-9B-1M,Gemini 1.5等,这种模型常常被广泛应用于长文档问答场景。然而,当前的长文本模型并没有在其回答中标注出每句话在原文中的依据,而由于文档过长,用户很难去验证模型提供的信息。此外,模型的输出也常常会出现幻觉,并不忠于原文,这严重影响了模型的可信性。针对这一问题,通常会通过RAG或者后处理的方式,让大模型在回复中加入引用信

文章图片
#人工智能#自然语言处理
小白学大模型:LLaMA-Factory 介绍与使用

Efficient fine-tuning对于将大型语言模型(LLMs)调整到下游任务中至关重要。然而要在不同模型上实现这些方法需要付出相当大的努力。多种精度:32 比特全参数微调、16 比特冻结微调、16 比特 LoRA 微调和基于 AQLM/AWQ/GPTQ/LLM.int8 的 2/4/8 比特 QLoRA 微调。先进算法:GaLore、DoRA、LongLoRA、LLaMA Pro、LoR

文章图片
#人工智能#自然语言处理
    共 41 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择