
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
自动程序修复(APR)尝试在无需人工干预的情况下修复软件漏洞,这在软件开发和维护中起着关键作用。近年来,随着大型语言模型(LLM)的发展,APR技术的数量迅速增加,且性能显著显著。然而,现有基于LLM的APR技术通常采用试错策略,但存在两个主要缺点:(1)由于本地探索导致补丁效果有限,(2)由于冗余探索导致搜索效率较低。本文提出了APRMCTS,利用迭代树搜索改进基于LLM的APR。APRMCTS

检索增强生成(RAG)在通过外部知识集成增强大语言模型(LLM)方面取得了显著的成功,但其应用主要集中在文本内容上,而多模态视频知识的丰富领域则主要未被探索。本文介绍了 VideoRAG,这是第一个专门用于处理和理解超长上下文视频的检索增强生成框架。本文的核心创新在于其双通道架构,该架构无缝集成了 (i)基于图的文本知识对齐,用于捕获跨视频语义关系,以及(ii)多模态上下文编码,用于有效保留视觉特

自动程序修复(APR)尝试在无需人工干预的情况下修复软件漏洞,这在软件开发和维护中起着关键作用。近年来,随着大型语言模型(LLM)的发展,APR技术的数量迅速增加,且性能显著显著。然而,现有基于LLM的APR技术通常采用试错策略,但存在两个主要缺点:(1)由于本地探索导致补丁效果有限,(2)由于冗余探索导致搜索效率较低。本文提出了APRMCTS,利用迭代树搜索改进基于LLM的APR。APRMCTS

自动化程序修复被用来为错误的学生编程作业提供反馈,因为程序修复捕捉了使某个有缺陷的程序通过特定测试套件所需的代码修改。现有的学生反馈生成技术有限,因为它们要么需要手动提供错误模型,要么需要大量正确的学生提交才能学习,或者缺乏可扩展性和准确性。在本研究中,我们提出了一种全自动化的方法,用于实时生成学生项目修复。这是通过先将所有可用的正确解重构为语义等价的解来实现的。给定一个错误的程序,我们会根据其控
程序可靠性的重要性与人工修复的高成本之间的矛盾,使得自动化程序修复(Automated Program Repair, APR)成为不可或缺的研究方向。APR能将存在缺陷的程序转化为更健壮的版本,不仅提升程序的可靠性,也显著降低人工修复所带来的经济负担。商业级的语言模型(LM)将APR提升到了前所未有的水平。然而,研究发现,当模型参数规模较小(如少于 100B 参数)时,仅通过单步修改往往难以实现

自动程序修复已成为一种强大的技术,可以减轻软件错误对系统可靠性和用户体验的影响。本文介绍了 RepairAgent,这是第一个通过基于大语言模型 (LLM) 的自治代理来解决程序修复挑战的工作。现有的基于深度学习的方法通过固定提示或固定反馈循环来提示模型,而本文的工作将 LLM 视为能够自主规划和执行操作以通过调用合适的工具来修复错误的代理。RepairAgent 自由地交叉收集有关错误的信息、收

自动程序修复(APR)是一项为错误代码自动生成补丁的任务。然而,大多数研究都侧重于生成正确的补丁,而忽略了修复代码与原始错误代码之间的一致性。如何进行自适应的bug修复,并以最小的修改生成补丁,很少有人去研究。为了弥补这一差距,我们首先引入了一个新的任务,即AdaPR(自适应程序修复。然后,我们提出了一种两阶段的方法AdaPatcher(AdaptivePatchGenerator)来增强程序修复
随着人工智能(AI)在各个领域的快速发展,人工智能驱动的工具在教育方面表现出巨大的潜力,尤其是在编程方面。然而,目前的研究中缺少对大语言模型(LLMs)作为自动编程评估系统 (APAS)AI-Tutor的科学评估。因此,为了了解学生如何与基于LLMs的AI-Tutor进行互动,并分析他们的体验,这篇文章展开了探索性的案例研究。具体而言,本文在APAS Artemis中集成GPT-3.5-Turbo

本文介绍了LLaMA,是一个从7B到65B参数的基础语言模型集合。作者在数万亿计的token上训练该模型,证明了仅使用公开数据集也可以训练出SOTA级别的模型,而无需专有或未公开的数据集。最终实验结果显示,LLaMA-13B在大多数基准测试中要优于GPT-3(175B),同时LLaMA-65B与最好的模型Chinchilla-70B、PaLM-540B相比具有竞争力。基于更多的参数会带来更好的性能









