
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
大型语言模型(LLMs)在代码生成任务如文本到SQL方面表现出色,但其成本是否值得?许多最先进(SOTA)的方法使用非特定任务的LLM方法,包括链式思维(CoT)、自一致性以及微调模型。这些方法对于推理可能代价高昂,有时需要超过一百次带有推理的LLM调用,每次查询的平均成本高达$0.46,而微调模型的成本可能高达数千美元。我们引入了“N-重复”一致性,这是一种更经济高效的文本到SQL方法,在BIR

随着大型语言模型(LLMs) (Zhao et al. 2023;Minaee et al. 2024) 的规模扩大,它们面临着数据瓶颈问题,高质量的互联网数据无法满足日益增长的训练需求。与此同时,下游数据量迅速增加,但由于其实时可用性 (Lei Wang et al. 2024;X.-Y. Liu, Wang, and Zha 2023) 、隐私问题 (Arora et al. 2023) 、许

梁彦彪、石慧鸿、邵海阔、王忠锋,IEEE Fellow最近,大型语言模型(LLMs)在自然语言处理(NLP)领域取得了巨大成功,推动了将其部署从云端扩展到边缘设备的需求不断增长。然而,在资源受限的边缘设备上部署LLMs面临重大挑战,包括(1)密集计算和庞大的模型尺寸,(2)由自回归生成过程引入的巨大内存和带宽需求,以及(3)处理长序列的有限可扩展性。为应对这些挑战,我们提出了AccLLM,这是一种

大型语言模型(LLMs)彻底改变了自然语言处理(NLP),特别是通过检索增强生成(RAG),它通过整合外部知识增强了LLM的能力。然而,传统的RAG系统存在关键限制,包括由于文本分块导致的上下文完整性中断,以及过度依赖语义相似性进行检索。为了解决这些问题,我们提出了CausalRAG,这是一种将因果图整合到检索过程中的新框架。通过构建和追踪因果关系,CausalRAG保留了上下文连续性并提高了检索

大型语言模型(LLMs)作为一种有前景的解决方案,能够将自然语言查询转换为SQL命令,从而实现无缝的数据库交互。然而,这些文本到SQL(Text2SQL)系统面临着固有的局限性、幻觉生成、过时知识和不可追踪推理等问题。为了解决这些挑战,将检索增强生成(RAG)与Text2SQL模型集成的方法逐渐受到关注。RAG作为一个检索机制,提供必要的上下文信息,如表结构和元数据,以增强查询生成过程。尽管潜力巨

在当今的数字环境中,假新闻通过社交网络传播的速度给社会带来了重大挑战。大多数现有的检测方法要么采用传统分类模型,这些模型存在解释性低和泛化能力有限的问题,要么为大型语言模型(LLMs)设计特定提示以直接生成解释和结果,未能充分利用LLMs的推理能力。受“真相在辩论中更加清晰”这一说法的启发,我们的研究引入了一种名为TruEDebate(TED)的新颖多智能体系统,该系统结合了LLMs以增强假新闻检

放射科报告生成(RRG)旨在从医学影像中自动生成诊断报告,有可能提升临床工作流程并减少放射科医生的工作量。虽然最近利用多模态大语言模型(MLLMs)和检索增强生成(RAG)的方法取得了显著成果,但仍面临事实不一致、幻觉和跨模态对齐错误等挑战。我们提出了一种多模态多智能体框架用于RRG,该框架与逐步临床推理工作流程相一致,其中任务特定的智能体负责检索、草稿生成、视觉分析、细化和综合。实验结果表明,我

Biao Yi1\mathbf{Y i}^{1}Yi1, Xavier Hu 1{ }^{1}1, Yurun Chen 1{ }^{1}1, Shengyu Zhang 1∗{ }^{1 *}1∗, Hongxia Yang 2{ }^{2}2, Fan Wu3\mathbf{W u}^{3}Wu3, Fei Wu1\mathbf{W u}^{1}Wu11{ }^{1}1 浙江大学2{ }^{2

本文提出$\mathbf{T}^{2}$-RAGBench基准数据集,包含32,908个金融领域问题-上下文-答案三元组,用于评估检索增强生成(RAG)系统处理文本和表格混合数据的能力。不同于现有问答数据集依赖已知上下文,该基准要求模型先检索正确上下文再进行数值推理。作者将上下文依赖问题转换为独立格式,并全面评估主流RAG方法,发现混合BM25方法表现最佳。实验表明,即使最先进方法在该基准上仍具挑
Deepseek 和通义千问LLMs在2025年初因其低成本和开放访问的LLM解决方案而变得流行。一家位于中国浙江省杭州市的公司于2024年12月宣布了其新的LLM,DeepSeek v3。随后,阿里巴巴于2025年1月29日发布了其AI模型通义千问2.5 Max。这些免费且开源的工具对世界产生了重大影响。Deepseek和通义千问也有潜力被世界各地的许多研究人员和个人用于学术写作和内容创作。因此









