
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Qdrant(读作:quadrant)是一个矢量相似性搜索引擎和矢量数据库。它提供了一个方便的API来存储、搜索和管理点向量的生产就绪服务,并提供了额外的有效负载专门用于扩展过滤支持。这使得在各种神经网络或基于语义的匹配、多面搜索和其他应用方面更加有用。Qdrant要比Weaviate向量库好用。

vLLM是一个快速且易于使用的LLM推理和服务库,适合用于生产环境。单主机部署会遇到显存不足的问题,因此需要分布式部署。

Ollama是一个开源的大型语言模型部署工具,它可以帮助用户快速在本地部署运行大模型。类似于Docker一样,仅仅用几行命令就可以运行一个大模型。

Drone是基于GO语言开发的持续集成(Continuous integration,CI)引擎,它可以借助Docker容器技术,用于自动化测试与构建,满足持续交付的基本需求,适合小团队开发。Drone具有简洁、轻量级、启动快、资源占用等特点。Jenkins也是CI引擎,它的特点是文档丰富、功能丰富、插件丰富、配置功能强大等特点,但资源占用较高。Drone比Jenkins轻量级,对云原生支持较好。
1 生成https证书# (1)生成私钥文件,输入两次密码即可完成openssl genrsa -des3 -out om_pwd.key 2048# (2)创建请求证书openssl req -new -key om_pwd.key -out om_pwd.csr# (3)创建数字签名证书,x509表示自签名格式openssl x509 -req -days 365 -in om_pwd.csr
vLLM是一个快速且易于使用的LLM推理和服务库,适合用于生产环境。单主机部署会遇到显存不足的问题,因此需要分布式部署。

vLLM是一个快速且易于使用的LLM推理和服务库。它支持分布式部署、容器化部署和OpenAI的数据格式等,并且内置了大模型服务,可以直接用命令启动。vllm与Ollama有一定的区别,Ollama适合个人和小服务,vllm适合企业和提供服务,vllm的性能较高,并且并发性也较好。vLLM是一个Python库,它包含预编译的C++和CUDA(12.1)二进制文件,因此需要有GPU支持。

拖拽式构建智能体的开源框架比较多,例如:偏向工作流:coze、sim、n8n等;偏向RAG的有:Dify、RagFlow、MaxKB等;支持使用国产coze,学习成本低,相对好用和成熟。sim智能体框架,Sim是一款AI应用的可视化工作流构建工具,支持通过拖拽方块即可构建AI代理工作流。通过在画布上连接模块,即可创建强大AI代理、自动化流程及数据处理管道——无需编写代码。使用github上的doc

1 简介百度开发文档https://ai.baidu.com/docs#/TTS-Android-SDK/top本文实现了1种离线语言合成和多种在线语音合成。百度语音合成需要经过以下几个步骤,先注册百度账号,再创建百度语音应用,然后下载百度语音的SDK(jar文件)、语音模型(dat文件)、NDK so库文件,接着将jar文件放在Project->app->libs目录...
为解决大模型的不足,使用RAG技术增强大模型生成内容的针对性和可读性能力,有很多不错的开源项目。例如下面的项目。







