
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
2024年7月,我成功拿到了软件设计师的证书,也对得起自己一个月左右的准备时间。我是跟着文老师的课程学习的,感觉这位老师讲解通俗易懂,重点清晰。写这篇帖子是为了帮助那些想考软设的朋友们更高效地学习,了解软设的重点所在,以及取得证书的作用。

Spring AI 1.0.0-M7 不仅是一次版本迭代,更是 Java 生态拥抱 AI 革命的关键一步。无论您是构建聊天机器人、数据分析工具还是智能服务,Spring AI 都将助您以更少代码实现更多可能。M7 的发布标志着 Spring AI 已进入最终打磨阶段。根据路线图,团队计划于近期推出候选版本(RC1),并加速推进正式版(GA)的发布。作为通往 1.0 正式版(RC1 及 GA)的最后

在2025年6月的YC AI创业学校演讲中,知名AI专家Andrej Karpathy深入剖析了软件演进的三个里程碑阶段,并对大语言模型(LLM)的本质、特性及未来应用方向提出了独到见解。他的演讲不仅揭示了当前软件变革的核心,也为我们描绘了未来AI世界的图景。

由于我用macmini m4在本地用ollama部署了几个大模型,并通过内网穿透到了公网,由oneapi分发,但是没有ollama没做鉴权,导致任何人都可以通过我的ip访问访问我本地大模型。还好我今天收到了天翼云的提醒才意识到这个问题,现在已经修复这个问题了,希望看到朋友赶快去检查一下。

对比之下,一块RTX 4090显卡满载就要450瓦——这电费差距,长期运行成本得高多少!只要设备在网络中的某个位置连接,就可以用来运行模型,使用起来非常简单方便。这就好比把厨房和餐厅打通,厨师(GPU)和传菜员(CPU)再也不用跑来跑去,上菜速度直接翻倍!由图可以看到单台m4 mac的性能大约是28tokens/s,运算速度是8.52TFLOPS(每秒所执行的浮点运算次数)传统显卡(比如NVIDI

MQTT(Message Queuing Telemetry Transport)是一种轻量级、基于发布-订阅模式的消息传输协议,适用于资源受限的设备和低带宽、高延迟或不稳定的网络环境。它在物联网应用中广受欢迎,能够实现传感器、执行器和其它设备之间的高效通信。MQTT 通过如下定义客户端和代理来实施发布/订阅模型。

在本地设备上微调大语言模型(LLM)已成为开发者探索AI应用的新趋势。使用苹果MLX框架微调Qwen2.5-0.5B模型通过Ollama服务接入自定义项目实现端到端的本地化AI解决方案通过本教程,您已掌握:✅ Mac本地LLM微调技术✅ MLX框架的实战应用✅ Ollama服务集成方法使用自定义数据集进行领域适配探索不同量化策略的精度/性能平衡结合LangChain构建完整AI应用延伸阅读MLX官

MCP 是一个开放协议,它为应用程序向 LLM 提供上下文的方式进行了标准化。你可以将 MCP 想象成 AI 应用程序的 USB-C 接口。就像 USB-C 为设备连接各种外设和配件提供了标准化的方式一样,MCP 为 AI 模型连接各种数据源和工具提供了标准化的接口。Spring AI 不断的与时俱进,也支持了MCP协议,这使得我们这些普通程序员也能够快速搭建和引入MCP服务。

网上找了太多内网穿透的教程,大多数都用不了或者是巨麻烦,没办法只能自己尝试了,功夫不过有心人,终于让我试出一套最简单可行的解决方案了,希望能帮到你,有什么疑问欢迎在下方留言,我看到了一定第一时间回复。

MQTT(Message Queuing Telemetry Transport)是一种轻量级、基于发布-订阅模式的消息传输协议,适用于资源受限的设备和低带宽、高延迟或不稳定的网络环境。它在物联网应用中广受欢迎,能够实现传感器、执行器和其它设备之间的高效通信。MQTT 通过如下定义客户端和代理来实施发布/订阅模型。
