logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Flink Agents 源码解读 --- (7) --- AgentsExecutionEnvironment

AgentsExecutionEnvironment 的代码如下。本地执行环境实现集成自 AgentExecutionEnvrionment,为本地测试和开发提供执行环境不依赖 Flink 集群,可以在本地环境中运行和调试代理数据源支持通过from_list方法支持从列表数据源读取输入数据。

#flink#java#原型模式
AI时代如何临摹项目:Vault跨项目持久化存储系统

知识集中管理:所有学习资源集中在一个地方,不再散落各处AI上下文自动注入:AI助手能够自动理解可用的学习资源,无需手动提供上下文跨项目知识复用:多个学习项目之间可以共享和复用知识标准化目录结构:提供一致的目录结构,降低学习成本这套方案在HagiCode项目中已经经过了实际验证。如果你也在做AI辅助开发相关的工具,或者面临类似的知识管理问题,希望这些经验能给你一些参考。其实技术方案的价值不在于有多复

#人工智能
MacBook Air 本地运行大语言模型(LLM)

llama.cpp已经废弃了原来的Makefile编译方式,改用CMake,下面是MacBook Air专属的编译命令,自动启用Metal GPU加速,低功耗的关键就在这一步!给大家准备了专属脚本,实现一键启动、停止、重启、查看状态,适配你的MacBook Air,无需修改任何内容。避坑提醒:models目录下原有「ggml-vocab-xxx.gguf」文件,只是词表(相当于词典),不是完整模型

#语言模型#人工智能#自然语言处理
没有前端后,我把 MCP 做进了 Chats 1.7.0 AI 网关

1.7.0 在工具调用的事件与消息结构上做了比较大的增强:SSE 事件更丰富、消息内容里新增了工具请求/响应的类型,前端能把“调用了什么工具、传了什么参数、拿到了什么结果”以更清晰的方式展示出来。这件事看起来偏“体验”,但它会直接影响你是否愿意在真实业务里用工具调用:当工具一多、调用链一长,如果 UI 只是一坨 Markdown 混在一起,那基本等于不可用。

#前端#人工智能
没有前端后,我把 MCP 做进了 Chats 1.7.0 AI 网关

1.7.0 在工具调用的事件与消息结构上做了比较大的增强:SSE 事件更丰富、消息内容里新增了工具请求/响应的类型,前端能把“调用了什么工具、传了什么参数、拿到了什么结果”以更清晰的方式展示出来。这件事看起来偏“体验”,但它会直接影响你是否愿意在真实业务里用工具调用:当工具一多、调用链一长,如果 UI 只是一坨 Markdown 混在一起,那基本等于不可用。

#前端#人工智能
到底了