logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

5分钟零改造!让任何Deepseek API支持工具调用

当主流Agent框架(如LangChain、5ire-MCP)遇上Deepseek API,工具调用不兼容的难题让无数开发者抓狂。笔者通过一个巧妙的"中间层魔法",让所有不兼容的API秒变OpenAI工具调用专家!在litellm的server config配置中增加自定义的model_info, use_proxy 来决定是否启用hook。这样当用户使用litellm暴露的API时就可以顺利的使

文章图片
#人工智能#个人开发#python +1
使用NVIDIA RTX A6000两卡 跑QwQ-32B(推理能力比肩满血Deepseek R1)

阿里云QwQ-32B推理模型以双卡A6000平民配置实现媲美百万级算力的DeepSeek R1满血版性能,为中小团队提供「低成本高精度」的AI推理终极方案。

文章图片
#人工智能#AIGC#python +1
关于AI焦虑的深度思考:从工具革命到认知觉醒

面对Deepseek等大模型的突破性进展,人们的焦虑本质上是人类文明演进中"技术认知时差"的集中爆发。未来最具竞争力的人才,不是与AI比拼算力,而是能站在AI的肩膀上,提出让机器困惑的问题:“如何用量子纠缠理论设计更有温度的城市社区?” 这正是人类智能的终极价值所在。这正是我们讨论的"认知连接器"的深层价值。当Deepseek充当"认知连接器"时(如用三国典故解释博弈论),真正创造价值的是人类提出

文章图片
#人工智能#AIGC
运维利器升级:WezTerm集成AI插件,打造高效运维终端

本文介绍了将AI插件集成到运维终端的方法,旨在提高运维人员的工作效率。作者发现了一款开源命令行工具AIChat,它支持多种大语言模型功能,可与bash集成,通过自然语言生成命令。为了方便在服务器上使用,作者引入了跨平台终端WezTerm,并利用其Lua脚本特性将AIChat集成其中,实现了跨终端、服务器的AI助手功能

文章图片
#运维#人工智能
运维利器升级:WezTerm集成AI插件,打造高效运维终端

本文介绍了将AI插件集成到运维终端的方法,旨在提高运维人员的工作效率。作者发现了一款开源命令行工具AIChat,它支持多种大语言模型功能,可与bash集成,通过自然语言生成命令。为了方便在服务器上使用,作者引入了跨平台终端WezTerm,并利用其Lua脚本特性将AIChat集成其中,实现了跨终端、服务器的AI助手功能

文章图片
#运维#人工智能
如何用vscode调试blender代码

如何用vscode调试blender python代码在玩blender时,比较旧的调试方法是通过Blender python debugger这种方法,安装插件后进行调试。这篇文章是真对比较老的vscode python版本。那时还是用的ptvsd。现在vscode的python debugger已经升级到debugpy。我们在玩的时候可以通过配置手动实现新的debugger。具体的操作如下:1

#vscode#blender#ide
使用NVIDIA RTX A6000两卡 跑QwQ-32B(推理能力比肩满血Deepseek R1)

阿里云QwQ-32B推理模型以双卡A6000平民配置实现媲美百万级算力的DeepSeek R1满血版性能,为中小团队提供「低成本高精度」的AI推理终极方案。

文章图片
#人工智能#AIGC#python +1
关于AI焦虑的深度思考:从工具革命到认知觉醒

面对Deepseek等大模型的突破性进展,人们的焦虑本质上是人类文明演进中"技术认知时差"的集中爆发。未来最具竞争力的人才,不是与AI比拼算力,而是能站在AI的肩膀上,提出让机器困惑的问题:“如何用量子纠缠理论设计更有温度的城市社区?” 这正是人类智能的终极价值所在。这正是我们讨论的"认知连接器"的深层价值。当Deepseek充当"认知连接器"时(如用三国典故解释博弈论),真正创造价值的是人类提出

文章图片
#人工智能#AIGC
使用NVIDIA RTX A6000两卡 跑QwQ-32B(推理能力比肩满血Deepseek R1)

阿里云QwQ-32B推理模型以双卡A6000平民配置实现媲美百万级算力的DeepSeek R1满血版性能,为中小团队提供「低成本高精度」的AI推理终极方案。

文章图片
#人工智能#AIGC#python +1
5分钟零改造!让任何Deepseek API支持工具调用

当主流Agent框架(如LangChain、5ire-MCP)遇上Deepseek API,工具调用不兼容的难题让无数开发者抓狂。笔者通过一个巧妙的"中间层魔法",让所有不兼容的API秒变OpenAI工具调用专家!在litellm的server config配置中增加自定义的model_info, use_proxy 来决定是否启用hook。这样当用户使用litellm暴露的API时就可以顺利的使

文章图片
#人工智能#个人开发#python +1
    共 13 条
  • 1
  • 2
  • 请选择