logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型实战:LangChain+WebBaseLoader实现大模型基于网页内容的问答系统

本文将详细介绍一个基于LangChain和Ollama、WebBaseLoader读取指定网页实现的RAG对话系统,从技术原理到实际代码,全面解析如何构建一个具有上下文感知能力的智能问答系统。

文章图片
#人工智能#AI
零基础也能搞定!快速搭建本地大型语言模型指南

​在这篇文章中,我们将介绍如何在本地快速、简单地搭建属于自己的大型语言模型,实现自由自在的本地对话。整个过程。

文章图片
#语言模型#人工智能#自然语言处理 +1
世界上唯一一本全面解析Transformer的书《Transformer、BERT、GPT 大语言模型原理深度解析》太太太全面了!

此外,随着改进版Transformer架构(如Reformer、Longformer和Switch Transformer等)的出现,其在资源利用效率和处理超长序列的能力上得到了进一步优化和增强。Transformer组件详解:描述了Transformer的几个关键方面,如编码器包含六个包含自我注意力和前馈神经网络两层子层的块,而解码器同样包含六个块,但比编码器多一个用于处理编码器输出的多头注意力

文章图片
#transformer#bert#深度学习
快速学会一个算法,BERT

今天给大家介绍一个强大的算法模型,BERT(Bidirectional Encoder Representations from Transformers)是一种基于 Transformer 架构的深度学习模型,主要用于处理自然语言处理(NLP)问题。BERT 由 Google AI 的研究团队在 2018 年提出,。与之前单向读取文本的模型不同,BERT 通过考虑左右上下文来理解句子中的单词。这

文章图片
#算法#bert#人工智能 +1
减少网络推理时间,通过处理 Token 和内存 Token 实现高效的视觉Transformer !

作者提出了视觉 Token 图灵机(ViTTM),这是一种高效、低延迟、内存增强的视觉Transformer(ViT)。作者的方法基于神经图灵机和 Token 图灵机,前者用于NLP和序列视觉理解任务,后者用于非序列计算机视觉任务,如图像分类和分割。ViTTMs被设计用于非序列视觉任务,如图像分类和分割。作者的模型创建了两组 Token :处理 Token 和内存 Token;处理 Token 通

文章图片
#网络#transformer#深度学习 +1
8个视觉大模型生成式预训练方法

大语言模型的进展催生出了ChatGPT这样的应用,让大家对“第四次工业革命”和“AGI”的来临有了一些期待,LLM和视觉的结合也越来越多:比如把LLM作为一种通用的接口,把视觉特征序列作为文本序列的PrefixToken,一起作为LLM的输入,得到图片或者视频的caption;也有把LLM和图片生成模型、视频生成模型结合的工作,以更好控制生成的内容。当然2023年比较热门的一个领域便是多模态大模型

文章图片
#人工智能
Langchain-Chatchat:打造你的本地知识库问答系统

是一个创新的问答应用,它利用了先进的langchain技术,为中文用户提供了一个友好、可离线运行的知识库问答解决方案。无论是学术研究、商业分析还是日常查询,Langchain-Chatchat都能以惊人的速度为你提供答案。“LangChain使用支持”

文章图片
#人工智能
大模型在股市真的能帮我们赚钱吗?

我只是个大模型的用户,不敢说有什么研究,本来是没什么资格来回答这个问题,不过因为去年和不少量化公募的投资经理聊过,所以就来分享一下我自己的想法。首先要说明,这里说的大模型,是指 LLM(Large Language Model),大语言模型。这是人工智能技术中的一个细分门类,两者不可混用。其次,“帮助”到底怎么界定?我觉得要分为两种不同的“帮助”。

文章图片
#人工智能#语言模型#自然语言处理 +1
基于 Qwen2-1.5B Lora 微调训练医疗问答任务

模型回答:根据你的叙述,胃炎胆汁反流性胃炎的可能性大,建议口服奥美拉唑,吗丁啉救治,清淡易消化饮食,忌辛辣打击食物,留意歇息,不要加班除了正规救治胃痛外,患者还需要有看重护理方面,比如恰当饮食,始终保持心情愉快。很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗

文章图片
#人工智能#深度学习
大模型书籍 | 从入门到精通大模型就看这一本《掌握Transformer:从零开始构建SOTA模型》(附PDF)

您还将处理多语言和跨语言问题,通过监控模型的性能来优化模型,并了解如何将这些模型拆解为可解释性和可解释性。基于Transformer的语言模型已经在自然语言处理(NLP)研究中占据主导地位,现已成为一种新的范式。通过本书,您将学习如何使用Python Transformers库构建各种基于Transformer的NLP应用程序。随着学习的深入,您将探索自编码模型(如BERT)和自回归模型(如GPT

文章图片
#transformer#深度学习#人工智能
    共 504 条
  • 1
  • 2
  • 3
  • 51
  • 请选择