logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI时代如何临摹项目:Vault跨项目持久化存储系统

知识集中管理:所有学习资源集中在一个地方,不再散落各处AI上下文自动注入:AI助手能够自动理解可用的学习资源,无需手动提供上下文跨项目知识复用:多个学习项目之间可以共享和复用知识标准化目录结构:提供一致的目录结构,降低学习成本这套方案在HagiCode项目中已经经过了实际验证。如果你也在做AI辅助开发相关的工具,或者面临类似的知识管理问题,希望这些经验能给你一些参考。其实技术方案的价值不在于有多复

#人工智能
MacBook Air 本地运行大语言模型(LLM)

llama.cpp已经废弃了原来的Makefile编译方式,改用CMake,下面是MacBook Air专属的编译命令,自动启用Metal GPU加速,低功耗的关键就在这一步!给大家准备了专属脚本,实现一键启动、停止、重启、查看状态,适配你的MacBook Air,无需修改任何内容。避坑提醒:models目录下原有「ggml-vocab-xxx.gguf」文件,只是词表(相当于词典),不是完整模型

#语言模型#人工智能#自然语言处理
阶跃星辰 GUI-MCP 解读---(2)---决策层

会话管理模型推理调度,即负责与 LLM 交互,解析模型输出为可执行动作环境状态跟踪日志记录与持久化CLICK:点击屏幕坐标OTYPE:输入文本COMPLETE:标记任务完成WAIT:等待指定时间AWAKE:唤醒指定应用INFO:向用户询问信息ABORT:终止任务SLIDE:滑动操作LONGPRESS:长按操作。

#microsoft
没有前端后,我把 MCP 做进了 Chats 1.7.0 AI 网关

1.7.0 在工具调用的事件与消息结构上做了比较大的增强:SSE 事件更丰富、消息内容里新增了工具请求/响应的类型,前端能把“调用了什么工具、传了什么参数、拿到了什么结果”以更清晰的方式展示出来。这件事看起来偏“体验”,但它会直接影响你是否愿意在真实业务里用工具调用:当工具一多、调用链一长,如果 UI 只是一坨 Markdown 混在一起,那基本等于不可用。

#前端#人工智能
没有前端后,我把 MCP 做进了 Chats 1.7.0 AI 网关

1.7.0 在工具调用的事件与消息结构上做了比较大的增强:SSE 事件更丰富、消息内容里新增了工具请求/响应的类型,前端能把“调用了什么工具、传了什么参数、拿到了什么结果”以更清晰的方式展示出来。这件事看起来偏“体验”,但它会直接影响你是否愿意在真实业务里用工具调用:当工具一多、调用链一长,如果 UI 只是一坨 Markdown 混在一起,那基本等于不可用。

#前端#人工智能
【人工智能时代】-Dify绘图工具解析

langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。response = chain.invoke({"topic": "Python", "concept": "列表"})response = chain.invoke({"topic": "Python", "concept": "列表"})这是

搞定多模态微调只需一杯咖啡的时间?FC DevPod + Llama-Factory 极速实战

在实际使用中该控件主要用于整型或浮点的计数显示,与普通的LineEdit组件不同,该组件可以在前后增加特殊符号并提供了上下幅度的调整按钮,灵活性更强。接下来将用一个简单的案例展示如何使用 QSpinBox组件,该组件有两个版本:QSpinBox用于展示单精度浮点数,而QDoubleSpinBox() 则可以展示精度更高的数值,需要注意的是,该组件有两个特殊参数,当使用setPrefix() 时可以

到底了