logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

使用 ExLlamaV2 在本地运行 LLM:完整安装及实践指南

在资源受限的环境中,使用量化模型的本地推理对于降低成本并提高效率非常有帮助。例如,可以在个人开发机上进行实验或在边缘设备上部署语言模型。结束语:如果遇到问题欢迎在评论区交流。

#azure#flask
使用Hugging Face Endpoints进行文本生成推理

在现代机器学习开发中,Hugging Face Hub提供了一个丰富的开放平台,包含超过120,000个模型、20,000个数据集和50,000个示例应用(Spaces)。这些资源都可以公开获取,并且为用户提供了各种端点以构建机器学习应用程序。在这篇文章中,我将向大家展示如何连接到Hugging Face的不同端点类型。本次示例将特别关注于文本生成推理,这由一个自定义构建的Rust、Python和

#azure#flask
在Milvus中实现RAG模型集成的实战指南

RAG(Retrieval-Augmented Generation)模型是一种将检索和生成结合起来的方法,用于自然语言处理任务中,它能够利用外部知识库来增强语言生成的能力。Milvus是一个开源的向量数据库,非常适合用于大规模检索任务。结合OpenAI的强大语言模型能力,可以构建一套高效的RAG系统。

#milvus
构建智能对话代理:结合搜索引擎和本地知识库的高级 AI 助手

我们将使用两个主要工具:Tavily搜索引擎和一个基于本地知识库的检索器。在本教程中,我们学习了如何使用 LangChain 构建一个智能对话代理,该代理能够利用搜索引擎和本地知识库来回答问题。我们还为代理添加了基本的记忆功能,使其能够记住之前的对话内容。LangChain 官方文档OpenAI API 文档向量数据库和嵌入学习提示工程指南记住,构建高质量的 AI 代理是一个迭代的过程。不断测试、

文章图片
#人工智能#搜索引擎#python
如何跟踪大语言模型(LLM)的Token使用情况

大语言模型(LLMs)的使用在许多应用中都涉及到成本核算,而成本主要由模型使用的Token数量决定。LangChain是一个广泛使用的框架,提供了便捷的方式来调用大语言模型并进行结果处理。然而,当应用上线时,监控其Token使用情况以估算费用就显得尤为重要。我们将使用LangSmith来帮助跟踪这些Token使用。

#语言模型#python#java
如何加载ChatGPT数据导出并解析聊天记录

ChatGPT是由OpenAI开发的AI聊天机器人,它允许用户与人工智能进行互动并生成对话内容。为了让用户能够更方便地分析和处理这些对话,OpenAI提供了数据导出功能,你可以通过设置选项导出你的聊天记录。数据导出的文件通常为格式,我们可以通过编程方式加载这些数据进行处理。Langchain社区提供的库简化了这一步,使得解析和处理聊天数据非常方便。

#人工智能
使用人工智能与大模型技术构建智能问答系统

智能问答系统是一种利用自然语言处理(NLP)技术,从海量数据中提取答案并响应用户输入的问题的系统。它应用广泛,可以在客服、在线教育、医疗等多个领域实现自动化回答。

文章图片
#人工智能#python
构建智能购物助手:利用LangChain和Ionic创建产品搜索API

构建智能购物助手是提升用户购物体验的有效方式。通过结合LangChain和Ionic,我们可以创建一个强大的产品搜索API。这只是开始,您可以进一步扩展功能,如个性化推荐、价格比较等。LangChain官方文档Ionic Framework文档OpenAI API文档。

文章图片
#iphone#ios#python
使用人工智能与大模型技术构建智能问答系统

智能问答系统是一种利用自然语言处理(NLP)技术,从海量数据中提取答案并响应用户输入的问题的系统。它应用广泛,可以在客服、在线教育、医疗等多个领域实现自动化回答。

文章图片
#人工智能#python
如何跟踪大语言模型(LLM)的Token使用情况

大语言模型(LLMs)的使用在许多应用中都涉及到成本核算,而成本主要由模型使用的Token数量决定。LangChain是一个广泛使用的框架,提供了便捷的方式来调用大语言模型并进行结果处理。然而,当应用上线时,监控其Token使用情况以估算费用就显得尤为重要。我们将使用LangSmith来帮助跟踪这些Token使用。

#语言模型#python#java
    共 160 条
  • 1
  • 2
  • 3
  • 16
  • 请选择