
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
去年侧重大模型和GPT的原理,了。找到的练习项目不仅是对原理和概念的加深理解,更是对如何结合业务,业务逻辑的深度理解。要落到实际的应用场景,肯定需要对应用场景本身有足够的了解。而要理解场景,需要对大模型有足够的知识积累和实战经验。这就是为什么多练大模型项目如此重要。练习项目不仅能帮你更好地掌握理论知识,还能让你更清楚地了解如何把这些知识用到实际工作中。而要做到这一点,你需要对所使用的大模型有足够的

本文详细介绍了大型语言模型(LLM)的结构、参数量、显存占用、存储需求以及微调过程中的关键技术点,包括Prompt工程、数据构造、LoRA微调方法等。一、微调相关知识介绍在介绍LLM的微调知识前,我们先具象的认识下大模型长什么样子,包括模型结构、参数量、精度、显存占用。
AI发展飞快!只有动手了,才知道里面会遇到什么问题,才能知道,底层原理是什么!

一句话概括:基于图+向量混合存储技术的RAGGraph RAG是微软开发的一种基于图数据库的检索增强生成(Retrieval-Augmented Generation)技术,它将传统的向量检索与图数据库的语义关系相结合,提供更精准的信息检索和生成能力。Mem0通过图结构化记忆和LLM驱动的动态更新,解决了LLM的长对话一致性问题、知识图谱构建和维护问题,其核心创新包括:两阶段处理流水线• 提取阶段

过去大半年在构建 AI Agent,尤其是 Coding Agent 的时候,是不是总有一个绕不开 Anthropic 的 Claude。导致有句玩笑话,“大多数AI Agent离开了Claude,什么也不是!但它毕竟是闭源的,成本依然是悬在开发者头顶的一把剑。因此,开源社区对它的“围剿”也从未停止,从月之暗面的 Kimi K2 到阿里的 Qwen3-Coder, 国产大模型在 Agent 编码能

利用强化学习(RL)开发有效的量化交易策略是一项具有挑战性的任务,因为与实时金融市场的在线互动存在高风险。因此,利用历史市场数据而无需额外探索的离线强化学习变得至关重要。然而,现有的离线RL方法常常难以捕获复杂的时间依赖项。金融时间序列固有的风险,可能与历史模式过拟合。为了解决这些挑战,我们引入了一个用预训练的GPT-2权重初始化并使用LoRA进行优化的DecisionTransformer (D

有了State和Nodes后,下一步是通过**边(Edges)**将它们连接起来,以定义图谱的执行流向。普通边(Normal Edges)简单直接,始终从一个特定节点指向另一个节点。条件边(Conditional Edges)动态路由,通过Python函数检查当前State,决定下一步执行的节点。对于我们的ReAct智能体,需要一个条件边来检查调用工具:如果LLM决定调用工具,则路由至执行;结束流

DeepSeek实在太火了。火到这两天流量甚至把硅基流动都有点冲爆了,偶尔也会出现卡顿的情况。不过总体我体验下来,还是能比官网那个卡顿好接受的多。未来我相信,也许还能有更多云厂商和算力租赁加入战场,让这些开源模型,跑得更稳、更快。好啦,教程也说完了,剩下的就交给你去冲浪了。上班的第一天。记得用AI摸鱼哦。

DeepSeek实在太火了。火到这两天流量甚至把硅基流动都有点冲爆了,偶尔也会出现卡顿的情况。不过总体我体验下来,还是能比官网那个卡顿好接受的多。未来我相信,也许还能有更多云厂商和算力租赁加入战场,让这些开源模型,跑得更稳、更快。好啦,教程也说完了,剩下的就交给你去冲浪了。上班的第一天。记得用AI摸鱼哦。

实时将文本或结构化数据转化为“知识片段”(Episode)自动提取实体与关系,构建语义网络支持超低延迟的混合检索(语义关键词图路径精确追踪事件发生时间和被记录的时间(双时间维度)它不是传统的知识图谱工具,也不是简单的向量数据库,而是为 AI Agent 的大脑量身打造的记忆系统。然后告诉 Graphiti:“以后看到类似结构,就按这个模型提取!这样就能构建出高度定制化的专业知识图谱。简化复杂度:将







