
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
标题:从「金鱼记忆」到「时序推理」——AI智能体记忆的结构化进化核心问题:全文上下文检索导致信息淹没、时序混乱、延迟高核心解法:三层时序知识图谱(Episode→Semantic→Community)+ 双时序边失效机制技术支撑:BGE-m3嵌入、Neo4j图数据库、Cross-encoder重排、标签传播社区检测最终成果:准确率 +18.5%,延迟 -90%,Token -98.6%本质升华:将

❌ 张阿姨的困惑: "我肚子胀,吃不下饭,没劲儿,这是怎么回事?" → 系统返回:一堆不相关的碎片信息→ 患者更困惑: "到底是什么病?我该怎么办?

答 1:研究者想探究当 Tents Puzzle 的网格规模不断变大时,大模型的推理努力(例如生成多少推理 token)和成功率是如何随之变化的。之所以 o3-mini 更好,可能和其训练策略(在推理阶段有更多思考token分配,或有更好的链式思考/树式思考等方法)有关。不同模型在能成功解决的最大网格规模上有差异:有的模型在 10×10 或 20×20 还能解,有的在 25×25 就失败。如果发现

本文提出了一种名为rStar-Math的创新方法,旨在提升小型语言模型(1.5B-7B参数)的数学推理能力。该方法通过结合蒙特卡洛树搜索(MCTS)和代码辅助的多步验证,让小型模型能够进行深度推理。核心创新点包括:1)使用代码执行验证中间推理步骤的准确性;2)开发过程偏好模型(PPM)对推理步骤进行细粒度评估;3)构建多轮自我进化框架,通过迭代训练不断提升模型性能。实验表明,该方法能使7B参数模型

论文《Search and Refine During Think: Autonomous Retrieval-Augmented Reasoning of LLMs》提出了一种名为AutoRefine的新框架,旨在解决大语言模型(LLMs)在检索增强推理中的局限性。传统方法通常只关注最终答案的正确性,而忽视了检索和提炼过程的质量。AutoRefine通过引入“search-and-refine-

他们从语言哲学(拉康)切入,剖析了大语言模型“幻觉”的深层原理;提出了“Anchor-RAG”,在RAG流程里显式地找“不确定锚点”再检索,给生成过程“打地基”;判别条件是“模型对某词预测分布的熵值”或“Top-K预测的方差”等,用来决定该token是否存在大概率出现编造的风险。这样能让LLM更加可控、减少胡编乱造,并呼吁学界不要只在“模型调参”里打转,而要回归语言本身的理论。

MEGa 方法通过“多 LoRA + 门控机制”将新记忆直接注入模型内部,具有与 RAG 类似的检索能力,却不需要外部数据库。(1) 独立 LoRA Adapter、(2) 冻结基座仅微调 LoRA、(3) 内部门控相似度检索、(4) 多 Adapter 加权融合。相对传统全量微调、RAG 或普通 LoRA,它的关键优势是能在内部完成记忆注入 + 检索,且尽量减少灾难性遗忘。隐性方法主要包括使用模

论文:Empowering GraphRAG with Knowledge Filtering and Integration解决 GraphRAG 问题:噪音检索:当从外部知识图谱中检索到不相关或误导性的信息时,会干扰模型推理当检索到的信息与问题不匹配、存在大量噪声或冲突时,GraphRAG 会误导模型,从而导致性能下降。尤其是当知识图谱中的实体/路径数量过多或出现无关三元组时,LLM 在生成答

通过图结构操作实现冲突复杂度的精确控制。

ids = enc.encode_ordinary(example['text']) # 将文本编码为token ID序列out = {'ids': ids, 'len': len(ids)} # 返回ID列表和长度return out问1:encode_ordinary vs encode有什么区别?答1:encode_ordinary忽略特殊token(如<|endoftext|>)问2:为什








