
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
LLM大语言模型(十四):LangChain中Tool的不同定义方式,对prompt的影响
LangChain中Tool的不同定义方式,对prompt的影响

ffmpeg-go库的介绍
本质上ffmpeg-go是对命令行ffmpeg工具的封装,最终功能的实现都是通过在go里执行命令行工具来实现。在go代码中调用ffprobe命令行工具。

RAG概述(一):RAG架构的演进
RAG:Retrieval-Augmented Generation 检索增强生成。RAG通过结合LLMs的内在知识和外部数据库的非参数化数据,提高了模型在知识密集型任务中的准确性和可信度。。RAG的发展经历了三个主要阶段:初级(Native RAG)、高级(Advanced RAG)和模块化RAG(Modular RAG)。

LLM大语言模型(十三):ChatGLM3-6B兼容Langchain的Function Call的一步一步的详细转换过程记录
ChatGLM3-6B兼容Langchain的Function Call的一步一步的详细转换过程记录

LLM大语言模型(六):RAG模式下基于PostgreSQL pgvector插件实现vector向量相似性检索
在LLM的RAG场景下,使用PostgreSQL+pgvector插件,作为向量数据的管理后端,简单高效。

LLM大语言模型(七):部署ChatGLM3-6B并提供HTTP server能力
部署ChatGLM3-6B并对外提供HTTP server能力

LLM大语言模型(三):使用ChatGLM3-6B的函数调用功能前先学会Python的装饰器
本文介绍了如何在ChatGLM3-6B中使用自定义函数,来扩展大模型的能力。

LLM大语言模型(五):用streamlit开发LLM应用
使用streamlit快速开发LLM demo应用。

LLM大语言模型(八):ChatGLM3-6B使用的tokenizer模型BAAI/bge-large-zh-v1.5
BGE embedding系列模型是由智源研究院研发的中文版文本表示模型。可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。

LLM大语言模型(二):Streamlit 无需前端经验也能画web页面
Streamlit提供了一种非常便捷且高效的方式,让后端开发也能轻松的画出来简单的web页面。特别适合LLM这种页面比较简单的场景。








