
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
时间目标关键动作第1周跑通 Python + RAG Demo安装 Ollama + LangChain,实现本地问答第2周用 Spring AI 封装模型写一个/chat接口,返回流式响应第3-4周构建完整微服务架构拆分 rag-service、llm-service,加监控1-2月做一个作品集项目如“企业知识库助手”、“智能客服系统”3月+投简历,面试强调“工程落地能力”,而非算法理论✨最后忠
场景是否适用开发环境调试多个服务✅ 非常适合内网系统暴露给团队使用✅ 推荐做法没有公网 DNS 或云解析✅ 必须用 hosts + Nginx多人协作开发❌ 单独 hosts 不行,需配合内网 DNS 或 nginx + 代理✅是的,你现在的配置已经实现了“浏览器输入域名 → 自动代理转发到对应服务”的功能![浏览器] → [hosts 解析] → [Nginx 反向代理] → [后端服务]hos
同步调用:提交文本后,服务端立即处理并返回完整的语音合成结果。整个过程是阻塞式的,客户端需要等待服务端完成处理后才能继续下一步操作。流式调用:将文本逐步发送到服务端并实时接收语音合成结果,允许将长文本分段发送,服务端在接收到部分文本后便立即开始处理。适合实时性要求高的长文本语音合成场景。提交文本后,服务端立即处理并返回完整的语音合成结果。整个过程是阻塞式的,客户端需要等待服务端完成处理后才能继续下
术语说明可流式传输的 HTTP 请求(描述性说法)SSEServer-Sent Events,是实现流式传输的标准技术SSE 使用的内容类型FluxSpring WebFlux 中表示数据流的类型前端 JS 用来接收 SSE 的 API🎯你现在要记住:“Streamable HTTP” 就是用 SSE 实现的 AI 流式输出。用.call()→ 普通 HTTP(等结果)用.stream()→ S
向量化和向量数据库是最关键的技能,如果是AI大模型开发技能的必选必备面试必问笔试必考工作中必用的技能向量、向量文本化、向量数据库这三个概念是最重要的概念传统的关系型数据库MySQL分布式内存数据库Redis还有一个向量数据库,也叫矢量数据库,专门存向量化后的数据这三种数据库在简历上体现才可以脱颖而出。
问题回答🔹 我现在是不是在用本地大模型?✅是的!你在用 Ollama 提供的本地大模型服务🔹 模型文件在哪?(Mac/Linux)或C:\Users\用户名\.ollama\models(Windows)🔹 Java 程序直接运行模型了吗?❌ 没有,它是通过 HTTP 调用本地 Ollama 服务🔹 这算不算“本地部署”?✅ 当然算!这是目前最主流的本地大模型使用方式。
摘要: 苍穹外卖项目采用WebSocket实现商家与用户的实时消息推送,核心解决订单状态变更的即时通知问题。通过SpringBoot集成WebSocket,建立以用户/商家ID为标识的长连接,服务端主动推送消息至客户端(如新订单提醒、状态更新)。相比传统轮询,WebSocket降低延迟与服务器压力,用户下单后商家秒级接收通知,商家操作后用户实时查看状态,显著提升系统响应速度与体验。技术实现包括后端
官网:Ollama像这种阿里云的百炼模型都是在远端,但是现在希望本地进行大模型的部署,就要用Ollama本地大模型部署Ollama借鉴了Docker的思想,Docker可以想象成一个鲸鱼背上的集装箱,每个集装箱就是容器,容器里可以跑各种实例Docker Hub玩镜像,而Ollama Hub可以部署各种各样的大模型,可以把各种大模型下载到本地而Ollama跑的是各种大模型有各种大模型供应商、千奇百怪
关闭FileOutputStream用了try-with-resource进行关闭。选择对应的vocie参数,就可以以流式的方式写进硬盘然后直接获得即可。这里是转成了ByteBuffer,可以很快速的进行网络IO传输。//3.字节流语音转换。参数必须与所选音色对应,否则调用将失败。
通俗的意思就是:将AI大模型返回的结果转成JSON、XML、Java类等,原本返回值是String(字符串)







