
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
如何从零搭建一个 LLM 应用?不妨试试 LangChain + Milvus 的组合拳。

为了保证指令集的多样性,每轮都会计算新生成指令和已有指令的Rouge-L相似度,也就是摘要任务评估中用最长公共子串的长度计算的F值。我对以上指令做了些调整,限制只生成医学领域的任务,得到了如下的结果。后来我(似乎&努力)说服了自己,就是LLM做了类似非线性差值的工作,因为每个Step都会采样不同的指令作为上下文,而模型也会根据随机采样得到的不同的上下文融合出新的指令。针对以上生成的指令和样本还需要

本篇主要内容为介绍ChatGLM3的安装使用,后续才会涉及到使用LangChain实现本地知识库的内容;ChatGLM为智谱与清华大学开源的一个大语言模型,支持多轮对话、内容创作等,ChatGLM3-6B为ChatGLM3系列中门槛相对较低的一个,本地部署提供兼容OpenAI的API;LangChain用于快速开发基于大语言模型应用程序的框架,提供了一整套工具、组件、接口等使得程序与大语言模型轻松

本书由东北大学NLP实验室肖桐教授和朱靖波教授编著,是一本大语言模型领域的入门书,适合想了解大语言模型领域基础知识的小伙伴

LLaMA-Factory 是一个国内北航开源的低代码大模型训练框架,专为大型语言模型(LLMs)的微调而设计

本文总结了作者在ChatGLM-6B模型微调的经验,并汇总了目前开源项目&数据。

今天,给大家介绍一下如何在个人电脑上通过Ollama和OpenWeb-UI搭建一个属于自己的多模态大模型,能够结合本地知识库进行智能问答、图像分析等,并结合Dify构建本地的智能体。支持Windows、macos、Linux。

本书由东北大学NLP实验室肖桐教授和朱靖波教授编著,是一本大语言模型领域的入门书,适合想了解大语言模型领域基础知识的小伙伴

《深度学习》适合各类读者阅读,包括相关专业的大学生或研究生,以及不具有机器学习或统计背景、但是想要快速补充深度学习知识,以便在实际产品或平台中应用的软件工程师。

在之前的博客文章中,我们已经描述了嵌入是如何工作的,以及RAG技术是什么。本节我们我们将使用 LangChain 库以及 RAG 和嵌入技术在 Python 中构建一个简单的 LLM 应用程序。







