
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
python 能过download_image_from_url 将网上图片存本地。进行车牌识别。注意引用 import hyperlpr3 as lpr3

这是一个使用PyTorch实现的猫狗图像分类项目。

1. 通过 FastAPI 接口上传图片并异步处理水印2. 使用 Celery 处理异步任务队列3. 使用 RabbitMQ 作为消息代理4. 支持定时任务:- 每小时自动处理待处理图片- 每天清理一周前的旧图片5. 支持任务状态查询6. 支持查看计划任务列表

本项目是一个基于Python的本地智能语音助手,整合了语音录制、识别、AI对话和语音合成功能。系统采用模块化设计:通过sounddevice录制语音,faster-whisper进行语音识别,连接Ollama本地大模型(支持yi/llama3等)进行文本对话,最后使用edge-tts实现语音合成输出。环境配置需安装FFmpeg等依赖,并部署Ollama服务。核心流程为"语音输入→识别→A

摘要:本项目实现了一个基于Python的本地智能语音助手系统,整合了语音录制、语音识别、大模型对话和语音合成功能。系统采用模块化设计,通过sounddevice录制语音,faster-whisper进行语音识别,与本地Ollama部署的大模型(如yi:34b或llama3-8b)交互,最终通过edge-tts完成语音合成。项目提供了完整的开发环境配置指南,包括Python依赖包、FFmpeg的安装

检索(Retrieval)从知识库检索相关文档利用向量数据库进行高效存储和检索通过语义相似度找到最相关内容增强(Augmentation)将检索内容注入提示模板为模型提供准确的上下文确保回答基于可靠信息生成(Generation)利用大模型生成回答保证回答的准确性和可追溯性本文介绍的RAG问答系统结合了最新的AI技术,实现了一个既智能又可靠的问答系统。通过使用本地大模型和RAG技术,我们可以构建出

《OpenManus + Ollama 本地部署指南》摘要: 该指南详细介绍了如何本地部署OpenManus和Ollama的完整流程。首先说明了硬件和软件环境的最低配置要求,推荐使用NVIDIA GPU以获得更好性能。安装过程分为五个步骤:安装Ollama核心组件、下载所需语言模型、安装OpenManus框架、配置两者连接以及启动系统。指南还提供了进阶配置建议,包括模型参数优化和外部工具集成,并推
本文将详细分析一个Python实现的排盘系统(paipan.py)。这个系统实现了包括天干地支、五行、农历转换等在内的完整排盘功能。通过分析其源码,我们可以深入理解中国传统历法的计算原理和实现方法。

摘要:本项目实现了一个基于Python的本地智能语音助手系统,整合了语音录制、语音识别、大模型对话和语音合成功能。系统采用模块化设计,通过sounddevice录制语音,faster-whisper进行语音识别,与本地Ollama部署的大模型(如yi:34b或llama3-8b)交互,最终通过edge-tts完成语音合成。项目提供了完整的开发环境配置指南,包括Python依赖包、FFmpeg的安装

Xinference 是一个强大且可扩展的本地推理服务器,具有以下特点:支持多种类型模型的部署和服务(LLM、嵌入、图像等)提供统一的 RESTful API 和 Python SDK支持模型量化和优化可以在本地运行开源模型支持多种推理后端(PyTorch、ONNX等)
