logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Graph RAG: 知识图谱结合 LLM 的检索增强

本文为大家揭示 NebulaGraph 率先提出的 Graph RAG 方法,这种结合知识图谱、图数据库作为大模型结合私有知识系统的最新技术栈,是 LLM+ 系列的第三篇,加上之前的图上下文学习、Text2Cypher 这两篇文章,目前 NebulaGraph + LLM 相关的文章一共有 3 篇。

文章图片
#知识图谱#人工智能#RAG
大语言模型从零开始训练全面指南:预训练、Tokenizer训练、指令微调、奖励模型、强化学习

在这篇文章中,我们将尽可能详细地梳理一个完整的 LLM 训练流程。包括模型预训练(Pretrain)、Tokenizer 训练、指令微调(Instruction Tuning)、奖励模型(Reward Model)和强化学习(RLHF)等环节。

文章图片
#人工智能#自然语言处理
干货分享!如何评估 大型语言模型(LLMs)的输出质量?评估方法大盘点!

本文探讨了评估LLM输出结果的一些技术,从人工评估到自动化评估。其中:一方面,自动化评估的时间成本效率更高,在某些情况下是非常实用的选择,例如在早期原型设计阶段。另一方面,人工评估仍然是获得模型应用准确性和实用性最强评估标准。每种评估方法都有其优点以及潜在缺陷,这个也要根据具体任务具体分析。​。

文章图片
#服务器#人工智能#自然语言处理
大语言模型的应用秘诀:如何通过高效的提示词掌控AI?

大语言模型 (Large Language Model,LLM) 是由具有许多参数的人工神经网络组成,使用自监督学习或半监督学习对大量未标记文本进行训练,最终可以像人类一样理解和生成文本以及其他形式的内容。大语言模型有能力从环境中推断,生成连贯且与环境相关的响应,翻译,总结文本,回答问题,甚至协助完成创造性写作或代码生成任务。被人们所熟知的大语言模型有:Open AI的Chat GPT、Meta的

文章图片
#人工智能#语言模型#dubbo +3
从CaLM评测体系看上海AI实验室如何提升大模型的人类认知水平

近日,上海人工智能实验室(上海AI实验室)联合同济大学、上海交通大学、北京大学及商汤科技发布首个大模型因果推理开放评测体系及开放平台CaLM(Causal Evaluation of Language Models,以下简称“CaLM”)。首次从因果推理角度提出评估框架,为AI研究者打造可靠评测工具,。因果推理是人类认知能力最重要的特征之一,提升因果推理能力被视为由机器智能迈向人类智能水平的关键步

文章图片
#人工智能#科技#语言模型
告别繁琐搜索!我用 Marscode 简单实现了一个定制 AI 新闻聚合工具

作为一个经常写代码的程序员,我深深体会到这个概念有多香。想想看,不用配环境、不用担心电脑配置,打开浏览器就能 coding,这不就是我们梦寐以求的开发体验吗?最爽的是,云端 IDE 让我的开发方式变得超级灵活。简直不要太香 - 地铁上掏出手机看看代码,午休时用平板改改 bug,回到家用电脑继续开发,所有代码状态都完美同步。再也不用担心"诶呀,那段代码是不是忘在公司电脑上了"这种问题。而且的特性简直

文章图片
#人工智能#自然语言处理#深度学习 +2
吴恩达LangChain教程:Embedding与文档解析

想要依据Embedding实现文本检索,需要引入如下的依赖。其中,RetrievalQA的作用是对一些文档进行检索,CSVLoader将用于加载一些我们与LLM结合的以CSV格式存在的专有数据,DocArrayInMemorySearch是一种向量存储,也是一种内存中的向量存储,不需要连接到任何外部数据库。案例中提供了一个户外服装数据的CSV,使用CSVLoader实现数据加载。然后引入Vecto

文章图片
#人工智能
本地部署huggingface模型,建立自己的翻译应用

过去,我们使用翻译接口时,往往都是使用百度等的接口,每天有一定量的免费额度。今天为大家介绍一个可以进行翻译的模型,具备英译中、中译英的能力。并且在这个过程中,向大家介绍一个如何在本地部署模型。在之前的”五天入门RAG“中,我们介绍过如何线上运行,但这是需要网络条件的,当你不具备时,可以在本地安装使用。这个模型就是Helsinki-NLP/opus-mt-zh-en和Helsinki-NLP/opu

文章图片
#dubbo#自然语言处理#人工智能
一文快速阅读 LLaMA3.2-Vision 模型的结构

随着 Meta 放出了 LLaMA3.2 系列模型,LLaMA 系列也是正式迎来了官方版本的多模态大模型 LLaMA3.2-Vision [1]。那我们就在本期内容中聊一聊 LLaMA3.2-Vision 模型的结构,希望对大家有所帮助。相关代码位于 [2]先说结论,,均是采用的方式进行模态融合。而也仅仅由组成。LLaMA3.2-Vision-11B 的 ViT 参数量仅有 800M,projec

文章图片
#人工智能
大型语言模型(LLMs)的技术革新:问答对生成与优化实践

在人工智能领域,大型语言模型(LLMs)正以其强大的自然语言处理能力,为各行各业带来革命性的变化。这些模型,如GPT-3、GPT-4以及Llama 2,不仅在文本生成、翻译、摘要等领域展现出卓越的性能,还在问答系统中扮演着至关重要的角色。问答对(Question-Answer pairs, Q&A)的生成是LLMs应用的核心,它直接影响到模型的交互性和实用性,为用户提供准确、相关且及时的信息反馈。

文章图片
#语言模型#人工智能#自然语言处理
    共 482 条
  • 1
  • 2
  • 3
  • 49
  • 请选择