logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

MCP(模型上下文协议)是啥东西

MCP = AI 世界的“普通话” + “工具库管家”‌,让大模型从“嘴强王者”变成“实操达人”。

#人工智能
OpenAI 网站上的关于 API 文档中各菜单的结构介绍

CAPABILITIES:提供了关于API的功能和能力的详细信息,包括文本生成、函数调用、嵌入、微调、图像生成、视觉、文本到语音、语音到文本、审核等。GUIDES:提供了使用API的指南和最佳实践,包括提示工程、生产最佳实践、安全最佳实践、速率限制、错误代码、库、弃用、政策等。这些菜单旨在帮助用户了解和开始使用 API,提供了必要的信息和资源,以便用户能够快速上手并充分利用 API 的功能。这些菜

文章图片
#人工智能
Xinference 和 Ollama 的主要区别

Xinference 和 Ollama 的主要区别

#语言模型
Dify 是干啥的

Dify 是一个开源的大语言模型(LLM)应用开发平台,旨在帮助开发者快速构建和部署生成式 AI 应用。它融合了后端即服务(Backend as a Service, BaaS)和 LLMOps(Large Language Model Operations)的理念,提供了从原型设计到生产部署的全方位工具和功能。Dify 的目标是通过简化开发流程,让开发者能够专注于创新和业务需求,而不是重复造轮子

#语言模型
使用CherryStudio、Ollama、腾讯云搭建本地个人知识库、智能体

需要部署大模型和嵌入模型(太要求电脑配置了,配置差的最好不要尝试,我i5,16G内存,固态硬盘,集成显卡,deepseek根本跑不起来,llama3勉强能跑起来,但是超级慢,嵌入模型nomic-embed-text:latest跑起来后,向量化个几k的文本文件用了几分钟)安装ollama启动ollama启动后,Ollama会在默认端口11434上运行。你可以通过浏览器访问拉取llama3模型运行模

文章图片
#语言模型#人工智能
Cherry Studio 、anythingllm扫盲

如果你需要一个功能丰富、支持多种模型和AI助手的工具,Cherry Studio 是一个不错的选择。而如果你更关注文档知识库管理和多用户协作,AnythingLLM 可能更适合你的需求。如果你需要一个功能丰富、回答全面且支持多种模型和文档处理的工具,是一个更好的选择。如果你更关注知识库的管理和文档检索功能,且需要支持多用户和权限管理,可能更适合你的需求。

#语言模型
Xinference 和 Ollama 的主要区别

Xinference 和 Ollama 的主要区别

#语言模型
什么是大语言模型的Token

它会看到"P", "i", "n", "e", "a", "p", "p", "l", "e", "s", "a", "r", "e", "g", "r", "e", "a", "t", "f", "r", "u", "i", "t", "s" 这些珍珠。所以,如果你想象你的文本就像一串珠子链,OpenAI的模型就像是一位珠宝匠,它会根据一定的规则将珠子链拆分成一段段的小珠链(Token),每段都

文章图片
#语言模型#人工智能#自然语言处理
使用CherryStudio、Ollama、腾讯云搭建本地个人知识库、智能体

需要部署大模型和嵌入模型(太要求电脑配置了,配置差的最好不要尝试,我i5,16G内存,固态硬盘,集成显卡,deepseek根本跑不起来,llama3勉强能跑起来,但是超级慢,嵌入模型nomic-embed-text:latest跑起来后,向量化个几k的文本文件用了几分钟)安装ollama启动ollama启动后,Ollama会在默认端口11434上运行。你可以通过浏览器访问拉取llama3模型运行模

文章图片
#语言模型#人工智能
使用CherryStudio、Ollama、腾讯云搭建本地个人知识库、智能体

需要部署大模型和嵌入模型(太要求电脑配置了,配置差的最好不要尝试,我i5,16G内存,固态硬盘,集成显卡,deepseek根本跑不起来,llama3勉强能跑起来,但是超级慢,嵌入模型nomic-embed-text:latest跑起来后,向量化个几k的文本文件用了几分钟)安装ollama启动ollama启动后,Ollama会在默认端口11434上运行。你可以通过浏览器访问拉取llama3模型运行模

文章图片
#语言模型#人工智能
    共 41 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择