
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
随着大型语言模型(LLMs)在日常任务中的不断应用,提示工程仍然是计算语言学领域内一个活跃的研究方向,特别是在需要专业知识的领域,如算术推理。尽管这些LLMs针对多种任务进行了优化,但它们的广泛使用可能会对小型团队带来计算或财务上的负担。此外,完全依赖专有的、封闭源代码的模型通常会限制定制和适应性,从而在研究和应用可扩展性方面带来重大挑战。相反,通过利用参数量在70亿及以下的开源模型,我们可以在优

检索增强生成(RAG)在扩展到大规模知识库时遇到效率挑战,同时需要保持上下文相关性。我们提出了Hash-RAG,一个将深度哈希技术与系统优化相结合的框架,以解决这些限制。我们的查询直接从知识库代码学习二进制哈希码,消除了中间特征提取步骤,并显著减少了存储和计算开销。基于这种哈希驱动的高效检索框架,我们建立了细粒度分块的基础。因此,我们设计了一个PromptGuided Chunk-to-Conte

这是系列短报告中的第一篇,旨在通过严格的测试帮助商业、教育和政策领导者理解与人工智能合作的技术细节。图1:GPT 40 mini和40在不同条件下的表现。误差条显示单个比例的95%置信区间。有关条件之间的统计比较,请参见由于我们每个问题测试100次,我们可以查看礼貌和命令提示是否在单个问题层面上有帮助。有趣的是,在问题层面上,我们可以发现许多问题之间存在显著差异(见图2)。补充表3包含完整比较。这

大语言模型(LLMs)在许多自然语言处理(NLP)任务中表现出卓越性能,并已被应用于钓鱼邮件检测研究。然而,在当前的研究中,表现良好的LLMs通常包含数十亿甚至数百亿个参数,需要大量的计算资源。为了降低计算成本,我们研究了小型参数LLMs在钓鱼邮件检测中的有效性。这些LLMs约有30亿个参数,可以在消费级GPU上运行。然而,小型LLMs在钓鱼邮件检测任务中往往表现不佳。为了解决这些问题,我们设计了

Saurabh Srivastava & Ziyu Yao乔治梅森大学弗吉尼亚州费尔法克斯,邮编 22030,美国{ssrivas6,ziyuyao}@gmu.edu大型推理模型(LRMs)如 DeepSeek-R1 和 OpenAI o1 在各种推理任务中展示了卓越的能力。它们强大的生成和推理中间思维的能力也引发了这样的争论:它们可能不再需要广泛的提示工程或优化来解释人类指令并产生准确的输出。在

本文提出了一种新颖的文本到SQL框架XiYan-SQL,通过生成和选择多样化SQL候选显著提升任务性能。该框架包含三部分:1)模式过滤模块通过多路径检索和迭代列选择获取多个相关模式;2)多生成器集成方法采用多任务微调策略增强SQL生成能力,并通过不同SQL格式微调构建多样化模型;3)选择模型通过候选重组策略选择最佳SQL。实验表明,XiYan-SQL在BIRD基准测试上取得75.63%的执行准确率
转载自:http://www.tuicool.com/articles/VvuIvqUMachine Learning Algorithms Study Notes高雪松@雪松CedroMicrosoft MVP2 Supervised Learning 32.1 Perceptron Learning Algorith
《ChatBI核心技术:生成式BI解锁智能商业决策新维度》一书聚焦前沿数据分析技术,系统介绍如何通过自然语言处理与AI技术降低数据分析门槛。作者基于十余年数据领域经验,详细解析ChatBI的完整技术栈,包括NL2SQL转换、指标API等核心技术。全书从基础概念到实战应用,涵盖提示工程、大模型微调等关键技术,旨在推动数据分析民主化,让业务人员无需专业技能即可获取数据洞察,提升企业决策效率。

大型语言模型(LLMs)在代码生成任务如文本到SQL方面表现出色,但其成本是否值得?许多最先进(SOTA)的方法使用非特定任务的LLM方法,包括链式思维(CoT)、自一致性以及微调模型。这些方法对于推理可能代价高昂,有时需要超过一百次带有推理的LLM调用,每次查询的平均成本高达$0.46,而微调模型的成本可能高达数千美元。我们引入了“N-重复”一致性,这是一种更经济高效的文本到SQL方法,在BIR

随着大型语言模型(LLMs) (Zhao et al. 2023;Minaee et al. 2024) 的规模扩大,它们面临着数据瓶颈问题,高质量的互联网数据无法满足日益增长的训练需求。与此同时,下游数据量迅速增加,但由于其实时可用性 (Lei Wang et al. 2024;X.-Y. Liu, Wang, and Zha 2023) 、隐私问题 (Arora et al. 2023) 、许









