logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Claude官方Anthropic建议:构建高效智能体 (Building effective agents)(附pdf)

构件LLM的应用时,Anthropic建议从简单的解决方案开始,必要时才增加复杂性。智能系统可以分为基于固定工作流的工作流和自主决策的智能体,使用场景视需求而定,选择框架以辅助为目的而非增加复杂性

文章图片
#transformer#人工智能
几分钟掌握!用 LLM 快速构建实用知识图谱

我曾经尝试过构建知识图谱,结果以失败告终——那时候还没有 LLM 这样的工具!

文章图片
#人工智能#大数据#知识图谱
复旦大学NLP教授出品:大规模语言模型·从理论到实践(附文档pdf)

复旦大学自然语言处理实验室张奇教授、桂韬研究员、郑锐博士生以及黄萱菁教授结合之前在自然语言处理领域研究经验,以及分布式系统和并行计算的教学经验,通过在大语言模型实践和理论研究的过程中,历时 8 个月完成本书《大规模语言模型·从理论到实践》不可错过!

文章图片
#自然语言处理#人工智能
Macbook Pro M1 pro Cocoapods安装配置

iOS的环境配置比较麻烦,这里简单记录一下,有自己的试错,也有依据前人的经验,感谢前人的分享🙋。

文章图片
#cocoapods#cocoa#xcode +4
LLM大模型应用研发基础环境配置(Miniconda、Python、Jupyter Lab、Ollama等)

LLM大模型应用研发基础环境配置(Miniconda、Python、Jupyter Lab、Ollama等)

文章图片
#人工智能
RAG 01:讨论未经优化的 RAG 系统存在的问题与挑战

检索增强生成(Retrieval Augmented Generation,RAG)是通过整合来自外部知识源的额外信息来改进大语言模型(Large Language Models,LLMs)应用能力的一种技术。这种技术能够帮助 LLMs 产生更精确和更能感知上下文的回复,同时也能减轻幻觉现象。

文章图片
#人工智能#深度学习#RAG
【LLM大模型】当前流行的大模型智能水平排名

在当前的人工智能和自然语言处理领域中,多个大模型正在不断推动技术的前沿发展。这些大模型的智能水平可以通过一系列的标准化基准测试来评估,如MMLU、GPQA、MATH、MGSM、DROP和HumanEval。

文章图片
#自然语言处理#人工智能
大模型开源RAG框架汇总

本文搜集了一些开源的基于LLM的RAG(Retrieval-Augmented Generation)框架,旨在吸纳业界最新的RAG应用方法与思路。如有错误或者意见可以提出,同时也欢迎大家把自己常用而这里未列出的框架贡献出来,感谢~

文章图片
#人工智能#RAG#自然语言处理
RAG 05:探讨基于文本内在语义信息的数据分块方法

文档解析完成后,就能够获得一些结构化或半结构化数据。目前的主要任务是将这些数据分解成更小的 chunks (译者注:用于描述数据或信息被分成小块或片段的术语)再提取特征(features),然后将从数据中提取的特征(features)转换成一种能够捕捉到其语义的形式。

文章图片
#人工智能#算法#数据库 +1
【效果翻倍!AnythingLLM本地知识库你用的还好吗?】部署后必看!(三)调用本地模型问答的黄金技巧

【效果翻倍!AnythingLLM本地知识库你用的还好吗?】部署后必看!(三)调用本地模型问答的黄金技巧

文章图片
#人工智能#自然语言处理
    共 467 条
  • 1
  • 2
  • 3
  • 47
  • 请选择