logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

在家运行100B+语言模型:使用Langchain和Petals的指南

使用 Petals 和 Langchain,您可以轻松地在本地运行和测试大型语言模型。这种方法不仅成本低廉,还能让更多的个人开发者参与到前沿技术的研究中。Langchain 文档Petals 项目主页。

文章图片
#语言模型#人工智能#python
BagelDB:开源向量数据库让AI协作更简单

BagelDB(Open Vector Database for AI)是一个专为AI数据协作设计的平台。独立开发者的私有项目企业内部的团队协作数据DAO(去中心化自治组织)的公共贡献这种灵活性使BagelDB成为各种规模和需求的AI项目的理想选择。BagelDB为AI开发者提供了一个强大的工具,简化了向量数据的管理和协作过程。它的灵活性和可扩展性使其适用于各种AI项目,从个人实验到大规模企业应用

文章图片
#数据库#人工智能#python
使用 LangChain 集成 Exa Search 实现智能文档检索

这种组合应用场景非常广泛,适用于需要实时获取特定主题的深度内容的情况,比如新闻聚合、学术研究以及市场分析等。通过自动化的信息检索和处理,能够高效地满足用户的信息需求。如果遇到问题欢迎在评论区交流。

#前端
MLflow 部署大型语言模型的实战指南

MLflow 是一个开源平台,旨在简化机器学习项目的生命周期管理。MLflow Deployments 模块进一步扩展了其功能,专注于管理和使用大型语言模型。这一模块通过提供统一的接口,降低了与多个 LLM 提供商进行集成的复杂性。

#语言模型#人工智能#自然语言处理
如何应对API请求速率限制

在使用大型语言模型(LLM)和聊天模型的过程中,您可能会遇到API请求速率限制的问题。当您对模型API发起过多请求时,可能会收到速率限制错误。这种情况在您并行运行大量查询以在测试数据集上对聊天模型进行基准测试时尤为常见。为了应对这种情况,我们可以使用速率限制器来控制请求的发送速率,使其符合API允许的请求速率。

#网络#java#服务器 +1
使用华为Ascend NPU加速LangChain:深入探讨和实践指南

Ascend NPU是华为设计的专用AI处理器,旨在加速深度学习和机器学习任务。它具有高性能、低功耗的特点,特别适合大规模AI模型的训练和部署。本文介绍了如何在LangChain中使用华为Ascend NPU来加速嵌入计算和模型训练。Ascend NPU为AI应用提供了强大的硬件加速能力,特别适合处理大规模语言模型和复杂的NLP任务。华为Ascend官方文档LangChain文档PyTorch N

文章图片
#华为#python
使用PostgreSQL进行向量相似性搜索

随着AI技术的发展,向量相似性搜索成为了机器学习和数据科学领域中的一项重要任务。pg_embedding通过结合PostgreSQL和HNSW算法,实现了高效的向量相似性搜索,从而在大规模数据集上提供了近似最近邻搜索功能。

#postgresql#数据库
使用 PGVector 和 LangChain 实现向量存储

PGVector 可以用于多种文本数据处理场景,如知识检索、内容推荐和问答系统。特别是在需要处理大规模文本集的情况下,它提供了一种高效的数据存储和检索方式。结束语:如果遇到问题欢迎在评论区交流。

如何在LangChain中加载Markdown文档

Markdown因为其简洁和易用性在技术文档中被广泛使用。在AI应用中,我们通常需要从Markdown文件中提取结构化信息,从而更好地推动自动化处理和分析。LangChain是一个提供上下文感知推理应用的库,它提供了一种简便的方法来加载和解析Markdown文件。

#chrome#github
如何在 LangChain 工具中访问 RunnableConfig

定义一个自定义工具,并在函数签名中添加通过。

#python#microsoft
    共 130 条
  • 1
  • 2
  • 3
  • 13
  • 请选择