logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一文带你读懂 Google LangGraph 项目,快速入门 AI Agent 全栈开发

Google开源了一个基于LangGraph的智能Agent项目,该项目展示了如何构建一个具备"生成-搜索-反思-合成"完整流程的AI研究员系统。项目采用React前端和Python后端(FastAPI+LangGraph)架构,支持Google搜索API和Gemini模型,可生成带引用的结构化答案。核心亮点是通过LangGraph低代码方式编排AI代理流程,实现了深度自定义的

文章图片
「LLM企业实战03」三大引擎对决:Ollama、Xinference与VLLM服务框架实测

文章探讨了在硬件就位后,如何通过选择合适的LLM服务框架来高效运行模型。重点对比了Ollama、Xinference和VLLM三个框架的特点、适用场景及运维注意事项。Ollama以其简单易用和快速上手的特点,适合本地开发和低并发场景;Xinference则以其灵活性和对多GPU资源的优化利用,适合企业级应用,尤其是需要动态量化和多模型支持的场景;VLLM则在高吞吐和长上下文处理能力上表现优异,适合

文章图片
「LLM企业实战04」破解知识孤岛:打造基于Confluence的企业智能问答系统

企业内部的Confluence知识库常因信息分散、格式复杂和上下文依赖严重而难以有效利用,导致员工查找信息耗时费力。RAG(Retrieval-Augmented Generation)技术结合LLM(大语言模型)为解决这一问题提供了可能。RAG通过加载、分块、嵌入、存储、检索和生成等步骤,能够从复杂文档中提取信息并生成回答。然而,Confluence文档的复杂性,尤其是表格、代码块、流程图等非文

文章图片
解决GitHub图片不显示问题

最近发现 GitHub 的图片打不开了,如下原因是域名污染,这个就不解释了,反正照着下面的解决方法搞定就行。解决方法:打开 C:\Windows\System32\drivers\etc 下的 hosts 文件在最后加入如下内容保存就可以了。# GitHub140.82.114.4 github.com140.82.114.4 gist.github.com185.199.108.153 asse

#github
离线配置VSCode开发环境指南

文章目录0 背景1 软件下载2 扩展包下载3. C++环境配置4. 代码跳转功能实现5 END0 背景一般如果是离线环境,例如云桌面的情况下,有些情况下,公司出于安全考虑会断网,如果习惯用VSCODE开发,想搭建环境来进行开发,可以采用本文指出的方式进行。本文以 C++开发环境为例,进行说明。1 软件下载一般默认在vscode官网下载安装包,不过出于某些原因,直接下载较慢的情况下,可以采用如下链接

#vscode
一文带你读懂 Google LangGraph 项目,快速入门 AI Agent 全栈开发

Google开源了一个基于LangGraph的智能Agent项目,该项目展示了如何构建一个具备"生成-搜索-反思-合成"完整流程的AI研究员系统。项目采用React前端和Python后端(FastAPI+LangGraph)架构,支持Google搜索API和Gemini模型,可生成带引用的结构化答案。核心亮点是通过LangGraph低代码方式编排AI代理流程,实现了深度自定义的

文章图片
从一个烦恼到开源项目:我用 AI 做了一个工作区管理工具

就这样,WorkspaceSaver 诞生了。默默在后台保存你的窗口布局,就像 Word 的自动保存电脑重启后,一键恢复之前的工作环境支持多显示器,再也不用记住哪个窗口放哪个屏幕所有数据都存本地,对隐私安全很重视通常情况下,双击该软件,该软件会自动在注册表中进行注册,这样有助于下次电脑重启时能够自启动。然后它隐藏在托盘中。当鼠标单击(左击,右击都行)它时,能看到它的详细相关设置:这时候该程序会默认

文章图片
#AI#qt
「LLM企业实战08」实战复盘:大模型企业落地的经验、教训与未来展望

本文总结了企业级大语言模型(LLM)落地实践的核心经验与未来展望。关键经验包括:技术选型需因地制宜而非追求银弹,数据处理是隐形工程,需采用小步快跑迭代策略,Prompt工程需要精细化设计,以及重视运维细节。当前仍面临成本控制、性能平衡、准确性提升等挑战。展望未来,预计将出现更强大基础模型、更智能RAG技术,以及AI Agent的崛起。建议企业从真实痛点出发,采用PoC先行策略,拥抱开源但审慎选择,

文章图片
#人工智能
「LLM企业实战03」三大引擎对决:Ollama、Xinference与VLLM服务框架实测

文章探讨了在硬件就位后,如何通过选择合适的LLM服务框架来高效运行模型。重点对比了Ollama、Xinference和VLLM三个框架的特点、适用场景及运维注意事项。Ollama以其简单易用和快速上手的特点,适合本地开发和低并发场景;Xinference则以其灵活性和对多GPU资源的优化利用,适合企业级应用,尤其是需要动态量化和多模型支持的场景;VLLM则在高吞吐和长上下文处理能力上表现优异,适合

文章图片
类图、时序图、状态图绘制神器,程序猿们有福了。

这两款智能体的结合使用,提供了一个全面且高效的UML图绘制解决方案。用户只需通过简单的自然语言对话,就能快速生成标准的PlantUML语句,并通过UML 图片生成大师,将这些语句转换为高质量的UML图。整个过程高效、便捷,大大提高了工作效率,减少了绘图错误。

文章图片
#AIGC#流程图
    共 18 条
  • 1
  • 2
  • 请选择