
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
构件LLM的应用时,Anthropic建议从简单的解决方案开始,必要时才增加复杂性。智能系统可以分为基于固定工作流的工作流和自主决策的智能体,使用场景视需求而定,选择框架以辅助为目的而非增加复杂性

我曾经尝试过构建知识图谱,结果以失败告终——那时候还没有 LLM 这样的工具!

复旦大学自然语言处理实验室张奇教授、桂韬研究员、郑锐博士生以及黄萱菁教授结合之前在自然语言处理领域研究经验,以及分布式系统和并行计算的教学经验,通过在大语言模型实践和理论研究的过程中,历时 8 个月完成本书《大规模语言模型·从理论到实践》不可错过!

iOS的环境配置比较麻烦,这里简单记录一下,有自己的试错,也有依据前人的经验,感谢前人的分享🙋。

LLM大模型应用研发基础环境配置(Miniconda、Python、Jupyter Lab、Ollama等)

检索增强生成(Retrieval Augmented Generation,RAG)是通过整合来自外部知识源的额外信息来改进大语言模型(Large Language Models,LLMs)应用能力的一种技术。这种技术能够帮助 LLMs 产生更精确和更能感知上下文的回复,同时也能减轻幻觉现象。

在当前的人工智能和自然语言处理领域中,多个大模型正在不断推动技术的前沿发展。这些大模型的智能水平可以通过一系列的标准化基准测试来评估,如MMLU、GPQA、MATH、MGSM、DROP和HumanEval。

本文搜集了一些开源的基于LLM的RAG(Retrieval-Augmented Generation)框架,旨在吸纳业界最新的RAG应用方法与思路。如有错误或者意见可以提出,同时也欢迎大家把自己常用而这里未列出的框架贡献出来,感谢~

文档解析完成后,就能够获得一些结构化或半结构化数据。目前的主要任务是将这些数据分解成更小的 chunks (译者注:用于描述数据或信息被分成小块或片段的术语)再提取特征(features),然后将从数据中提取的特征(features)转换成一种能够捕捉到其语义的形式。

【效果翻倍!AnythingLLM本地知识库你用的还好吗?】部署后必看!(三)调用本地模型问答的黄金技巧
