
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
关系型数据库基础模型研究取得重要进展,从单表处理的TabPFN到跨表学习的Griffin,再到实现零样本预测的RelationalTransformer,三大突破性工作推动该领域快速发展。TabPFN通过合成数据预训练在单表任务表现优异;Griffin将数据库建模为图结构,实现跨表特征融合;RT创新性采用单元格级分词和关系注意力机制,实现异构模式间的零样本泛化。这些研究显著提升了模型通用性,为降低
近年来的嵌入表示学习方法,如平移距离模型、张量分解模型、神经网络模型等,通过将知识图谱中的实体和关系映射到低维稠密向量并保持其结构和属性特征,可用于链接预测、实体分类、三元组分类等任务以解决知识图谱的完整性问题,是进行知识图谱质量控制的一种重要手段。这篇文章对知识图谱质量控制问题展开了广泛的综述,内容不仅包括质量控制的基本概念如问题、维度和指标,也涵盖了质量控制从评估、问题发现到质量提升的全流程,

背景多模态大语言模型(MLLM)以大语言模型(LLM)为基础,能同时处理图像与文本等多种模态的信息。凭借强大的语言推理能力,MLLM在视觉问答、图像描述等任务中展现出了卓越的性能。然而,现有模型经常会出现幻觉(hallucination),即生成看似合理却并不正确的回答或描述。现有的MLLM幻觉原因主要可以分为两类,其一是模态偏差(bias),指模型可能出现“只依赖文本”或“只依赖图像”的倾向,从
我们首先介绍图的同构问题。给定两个图GVGEGHVHEHGVGEGHVHEH,如果存在一个映射πVG→VHπVG→VHst∈EG⟺πsπt∈EHst∈EG⟺πsπt))∈EH那么GHG,HGH就是同构的,记作G≃HG\simeq HG≃H,且称π\piπ是图GGG和HHH的一个同构。

近年来,图神经网络(Graph Neural Networks, GNNs)已成为图挖掘研究的核心,研究人员开始关注其在异构图方面的潜力。异构图由多种类型的节点和边构成,且带有不同的辅助信息,这将新颖有效的图学习算法与嘈杂复杂的工业场景(如推荐系统)联系起来。在异构信息网络中,各类节点的嵌入空间通常不同。不同节点对之间以及相同节点对之间,都存在着各种各样的关系。

本次论文分享围绕大模型幻觉的检测与消除中的分类器、不确定性度量、模型的评价能力共三个方面进行了调研与整理。对于未来的研究方向,笔者认为,在训练中可以通过知识图谱等可信知识源批量生成高质量数据,以及设计相关算法排除低质、有害的数据,防止幻觉通过训练引入大模型。在推理过程中则应当研究更为鲁棒的推理机制,在检索生成、思维链、辅助代码等基础上提出更为复杂的融合策略,提升大模型的可信度。

回顾这些图学习与大模型结合的多种探索,LLM-BP 代表了Enhancer 范式的简洁追求,证明了只要特征足够好,经典的启发依然能打败复杂的微调。GOFA 则代表了Predictor 范式的宏大理想,它用“三明治架构”将 GNN 与 LLM 深度融合,实现了“One-For-All”的零样本推理。而 CROSS 则提醒我们时间维度的重要性,在动态图中,只有捕捉到“语义漂移”,才能避免刻舟求剑。将这

作者发现Agent利用复杂推理策略(如Tree of Thought(ToT), Fleet of Agent(FoA))进行推理时,会产生大量冗余Prompt,且目前的缓存策略(如KV Cache)多在底层优化,难以支持在线API,且而现有的客户端缓存往往缺乏统计完整性和复现性,无法处理需要多个独立响应的随机采样场景。TiME的核心思路是利用MiniLMv2的蒸馏框架,将大型、强大的教师模型(X
本次分享讨论了大模型多智能体系统的故障归因工作,介绍了故障模式与故障定位方法。对这类任务,笔者具有如下改进思路:在数据集层面,可以尝试向更复杂的步骤(例如生成大段代码)以及更困难、专业的场景(如医学、数据库领域)方向进行数据收集与构建,以研究多智能体系统在更具挑战性任务上的错误模式。同时,可以在具身 VLA 等场景(开放的动作空间、更困难的步骤监督)开展研究。在方法层面,需要研究归因模型的鲁棒性与
大型语言模型(LLM)如GPT系列,凭借其在文本理解、问答系统和内容生成等广泛任务中的卓越表现,令自然语言处理社区为之惊叹。尽管成效显著,但这类模型常因处理知识密集型任务能力有限而备受诟病,特别是在面对需要领域专业知识的问题时。将LLM应用于专业领域仍面临三大根本挑战:知识局限性、推理复杂度和上下文敏感性。为了让LLM适应特定或私有领域,早期策略主要通过使用专业数据集对模型进行微调。这种方法通过在







