logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LLM预训练和后训练新范式

在查看 Qwen 2 技术报告中讨论的预训练和后训练方法之前,我们先简要总结一些核心规格。Qwen 2 模型有5种类型。有4个常规(密集)LLM,参数量分别为5亿、15亿、70亿和720亿。此外,还有一个57亿参数的专家混合模型,其中有14亿参数同时被激活。(由于架构细节不是这次的重点,我不会深入讨论专家混合模型;简而言之,这类似于Mistral AI的Mixtral,只是它有更多的活跃专家。高级

文章图片
#人工智能#自然语言处理#RAG
一本让你超越90%大模型初学者的入门好书!!这本书彻底杀死了我学大模型的混乱逻辑

《大模型基础》是浙江大学DAILY Lab推出的开源教材,系统讲解大语言模型的基础原理与核心技术。全书分为基础篇、核心篇和进阶篇,涵盖从传统语言模型到前沿技术如Prompt工程、参数高效微调等六大主题。内容特色包括:融入浙大原创研究成果、理论与实践结合、中文语境案例分析、AI伦理探讨等。适合高校学生、研究人员及开发者阅读,配套丰富资源如在线课程和代码仓库。该书电子版及完整学习资料可免费领取。

文章图片
#人工智能#RAG
大模型本地部署教程 | 搭建本地AI问答系统_embeddingstore

大家好,因为对AI大模型很感兴趣,相信很多兄弟们跟我一样,所以最近花时间了解了一些,有一些总结,分享给大家,希望对各位有所帮助。本文将讲解如何在本地搭建一个简易的AI问答系统,主要用java来实现,也有一些简单的python知识;网上很多例子都是以 ChatGPT来讲解的,但因为它对国内访问有限制,OpeAi连接太麻烦,又要虚拟账号注册账号啥的,第一步就劝退了,所以选择了 llama和qwen替代

文章图片
#人工智能#自然语言处理
Llama 3.2-Vision 多模态大语言模型

Llama 3.2-Vision多模态大型语言模型(文本 + 图像)是一个图像推理生成模型,按照官方的说法,在常见行业基准测试上,其性能优于许多可用的开源和闭源多模态模型。Llama 3.2-Vision有两个版本,一个是11B (7.9G),另一个是90B (55G)。在之前的文章中【;】,我们测试了在线的llama-3.2-vision-90b-instruct模型,结果显示Llama 3.2

文章图片
#语言模型#人工智能#自然语言处理
探秘 GraphRAG:知识图谱赋能的RAG技术新突破

在本文中,我们深入探索了 GraphRAG 这一创新技术。它通过整合知识图谱有效增强了 RAG 技术,在处理多跳推理和回答需要链接不同信息的复杂问题方面表现出色。与 Milvus 向量数据库结合后,GraphRAG 能够在大型数据集中驾驭复杂的语义关系,为各种实际的 GenAI 应用提供更准确、更有洞察力的结果,成为理解和处理复杂信息的强大工具。对于开发者和研究人员来说,GraphRAG 为提升人

文章图片
#知识图谱#人工智能#自然语言处理 +1
大语言模型怎么写好提示词,看这篇就够了_大模型提示词该怎么写

对于任何输入,大语言模型都会给出相应的输出,这些输入都可以成为提示词,通常,提示词由指令和输入数据组成,指令是任务,输入数据是完成的要求,其中指令应该明确,用词不能模棱两可,并可以提供清晰、详细的上下文内容,提供的内容越精确,模型的生成效果也会越好。对于复杂的任务,通过增加背景提示、让大模型扮演角色身份,给定示例,以及输出要求 ,都可以提高输出的效果。其中,背景提示可以是事件的背景,如我正在写一份

文章图片
#语言模型#人工智能#自然语言处理
AI新时代:大型语言模型与Node.js的融合实践——从LLM编程到自动化开发的飞跃

在当今科技飞速发展的时代,人工智能(AI)已经不再局限于科幻小说的幻想,而是成为我们日常生活中不可或缺的一部分。OpenAI这样的组织正引领着这场技术革命,特别是其背后的大型语言模型(LLMs)。同时,在软件开发领域,JavaScript作为一门多才多艺的语言,通过Node.js这一平台,正以前所未有的方式融合前端、后端乃至AI应用,展现其“一勺烩”的魅力。接下来,让我们深入探讨这两个前沿领域的发

文章图片
#人工智能#语言模型#node.js +2
从人工窗口到智能问答:大语言模型与RAG技术重塑政务服务

然而,微调模型存在一个显明问题,其“幻觉”现象较基础模型更为严重,生成的回答常包含许多与事实不符的内容,影响实际应用的可靠性。其次,RAG支持更为复杂的查询方式,能够处理多层次和多维度的问题,不依赖单一的关键词匹配。由此可见,为提高政务AI系统的可靠性,除了确保回答的准确性外,还需加强其可解释性,以帮助用户理解每个回答的依据,此举亦有助提升系统的透明度和信任度。很多人学习大模型的时候没有方向,东学

文章图片
#语言模型#政务#人工智能 +1
刷完这99个项目,你的LLM大模型就牛了!

LLM的应用场景不是独立的,而是和其他业务结合生成的新智能服务,这就是为什么多练习大模型项目如此重要。而理解了这点,也就知道了大模型应用的潜力有多巨大。练习项目不仅是对原理和概念的加深理解,更是对如何结合业务,业务逻辑的深度理解。要落到实际的应用场景,肯定需要对应用场景本身有足够的了解。而要理解场景,需要对大模型有足够的知识积累和实战经验。这些项目不仅收集了大模型训练实战,还有微调,分布式等训练,

文章图片
#自然语言处理
一文搞定 大语言模型(LLM)微调方法

众所周知,大语言模型(LLM)正在飞速发展,各行业都有了自己的大模型。其中,大模型微调技术在此过程中起到了非常关键的作用,它提升了模型的生成效率和适应性,使其能够在多样化的应用场景中发挥更大的价值。那么,今天这篇文章就带大家深入了解大模型微调。其中主要包括什么是大模型微调、什么时候需要大模型微调、大模型微调方法总结、大模型微调最佳实践等。在介绍大模型微调方法之前,首先带大家了解一下大语言模型的项目

文章图片
#语言模型#人工智能#自然语言处理 +1
    共 388 条
  • 1
  • 2
  • 3
  • 39
  • 请选择