logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

解码 LangChain|用 LangChain 和 Milvus 从零搭建 LLM 应用

如何从零搭建一个 LLM 应用?不妨试试 LangChain + Milvus 的组合拳。

文章图片
#milvus#人工智能#RAG
SELF自动化指令集构建代码实现

为了保证指令集的多样性,每轮都会计算新生成指令和已有指令的Rouge-L相似度,也就是摘要任务评估中用最长公共子串的长度计算的F值。我对以上指令做了些调整,限制只生成医学领域的任务,得到了如下的结果。后来我(似乎&努力)说服了自己,就是LLM做了类似非线性差值的工作,因为每个Step都会采样不同的指令作为上下文,而模型也会根据随机采样得到的不同的上下文融合出新的指令。针对以上生成的指令和样本还需要

文章图片
#人工智能#深度学习#机器学习
使用LangChain与ChatGLM实现本地知识库(一)

本篇主要内容为介绍ChatGLM3的安装使用,后续才会涉及到使用LangChain实现本地知识库的内容;ChatGLM为智谱与清华大学开源的一个大语言模型,支持多轮对话、内容创作等,ChatGLM3-6B为ChatGLM3系列中门槛相对较低的一个,本地部署提供兼容OpenAI的API;LangChain用于快速开发基于大语言模型应用程序的框架,提供了一整套工具、组件、接口等使得程序与大语言模型轻松

文章图片
#人工智能#产品经理
人工智能新书推荐(附下载链接):Foundations of Large Language Models(附pdf)

本书由东北大学NLP实验室肖桐教授和朱靖波教授编著,是一本大语言模型领域的入门书,适合想了解大语言模型领域基础知识的小伙伴

文章图片
#人工智能#知识图谱#RAG +1
北航开源大模型教程 LLaMA-Factory:大语言模型微调框架(附文档)

LLaMA-Factory 是一个国内北航开源的低代码大模型训练框架,专为大型语言模型(LLMs)的微调而设计

文章图片
#语言模型#人工智能
大模型微调实战:大语言模型LLM-微调经验分享&总结

本文总结了作者在ChatGLM-6B模型微调的经验,并汇总了目前开源项目&数据。

文章图片
#人工智能#自然语言处理#AI
本地部署多模态大模型,结合Open-WebUI和Dify实现多模态对话、智能体!

今天,给大家介绍一下如何在个人电脑上通过Ollama和OpenWeb-UI搭建一个属于自己的多模态大模型,能够结合本地知识库进行智能问答、图像分析等,并结合Dify构建本地的智能体。支持Windows、macos、Linux。

文章图片
#人工智能#AI#RAG
人工智能新书推荐(附下载链接):Foundations of Large Language Models(附pdf)

本书由东北大学NLP实验室肖桐教授和朱靖波教授编著,是一本大语言模型领域的入门书,适合想了解大语言模型领域基础知识的小伙伴

文章图片
#人工智能#知识图谱#RAG +1
【人工智能书籍】深度学习(花书)[张志华精翻 推荐阅读]

《深度学习》适合各类读者阅读,包括相关专业的大学生或研究生,以及不具有机器学习或统计背景、但是想要快速补充深度学习知识,以便在实际产品或平台中应用的软件工程师。

文章图片
#人工智能#深度学习#语言模型
通过RAG架构LLM应用程序

在之前的博客文章中,我们已经描述了嵌入是如何工作的,以及RAG技术是什么。本节我们我们将使用 LangChain 库以及 RAG 和嵌入技术在 Python 中构建一个简单的 LLM 应用程序。

#python#java#前端 +2
    共 1495 条
  • 1
  • 2
  • 3
  • 150
  • 请选择