logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

RepairAgent: An Autonomous, LLM-Based Agent for Program Repair

自动程序修复已成为一种强大的技术,可以减轻软件错误对系统可靠性和用户体验的影响。本文介绍了 RepairAgent,这是第一个通过基于大语言模型 (LLM) 的自治代理来解决程序修复挑战的工作。现有的基于深度学习的方法通过固定提示或固定反馈循环来提示模型,而本文的工作将 LLM 视为能够自主规划和执行操作以通过调用合适的工具来修复错误的代理。RepairAgent 自由地交叉收集有关错误的信息、收

文章图片
RepairAgent: An Autonomous, LLM-Based Agent for Program Repair

自动程序修复已成为一种强大的技术,可以减轻软件错误对系统可靠性和用户体验的影响。本文介绍了 RepairAgent,这是第一个通过基于大语言模型 (LLM) 的自治代理来解决程序修复挑战的工作。现有的基于深度学习的方法通过固定提示或固定反馈循环来提示模型,而本文的工作将 LLM 视为能够自主规划和执行操作以通过调用合适的工具来修复错误的代理。RepairAgent 自由地交叉收集有关错误的信息、收

文章图片
Less is More : Adaptive Program Repair with Bug Localization and Preference Learning

自动程序修复(APR)是一项为错误代码自动生成补丁的任务。然而,大多数研究都侧重于生成正确的补丁,而忽略了修复代码与原始错误代码之间的一致性。如何进行自适应的bug修复,并以最小的修改生成补丁,很少有人去研究。为了弥补这一差距,我们首先引入了一个新的任务,即AdaPR(自适应程序修复。然后,我们提出了一种两阶段的方法AdaPatcher(AdaptivePatchGenerator)来增强程序修复

#bug
AI-Tutoring in Software Engineering Education

随着人工智能(AI)在各个领域的快速发展,人工智能驱动的工具在教育方面表现出巨大的潜力,尤其是在编程方面。然而,目前的研究中缺少对大语言模型(LLMs)作为自动编程评估系统 (APAS)AI-Tutor的科学评估。因此,为了了解学生如何与基于LLMs的AI-Tutor进行互动,并分析他们的体验,这篇文章展开了探索性的案例研究。具体而言,本文在APAS Artemis中集成GPT-3.5-Turbo

文章图片
#人工智能
ThinkRepair: Self-Directed Automated Program Repair

本文提出ThinkRepair,一种基于大语言模型的自动程序修复方法。针对现有技术在逻辑错误修复上的不足,ThinkRepair采用两阶段框架:收集阶段通过思维链提示获取修复知识;修复阶段结合few-shot示例与测试反馈进行迭代修复。在Defects4J和QuixBugs数据集上的实验表明,ThinkRepair显著优于12种SOTA方法,在Defects4J V1.2上修复98个错误,比基线提

文章图片
KAN: Kolmogorov–Arnold Networks

受Kolmogorov–Arnold表示定理的启发,本文提出了Kolmogorov–Arnold Networks ( KAN ),作为多层感知机( MLP )的一种可行的替代方案。MLP在每一个节点(神经元)上具有固定的激活函数,KAN在边(权重)上具有可学习的激活函数。KAN中完全没有线性权重——每个权重参数都被替换为一个单变量样条函数(spline function)。本文表明,这种看似简单

文章图片
#人工智能#深度学习#神经网络
Talk Like a Graph: Encoding Graphs for Large Language Models

图是表示和分析现实世界应用中复杂关系的强大工具,如社交网络、推荐系统和计算金融。对图进行推理对于推断复杂系统中实体之间的关系,以及识别隐藏的模式和趋势是必不可少的。尽管在使用自然文本的自动推理方面取得了显著进展,但对使用大语言模型(LLM)的图推理仍然是一个有待研究的问题。这项工作对将图结构数据编码为文本以供LLM使用进行了首次全面研究。证明了LLM在图推理任务上的表现在三个基本层次上有所不同:

文章图片
#语言模型
LLaMA: Open and Efficient Foundation Language Models

本文介绍了LLaMA,是一个从7B到65B参数的基础语言模型集合。作者在数万亿计的token上训练该模型,证明了仅使用公开数据集也可以训练出SOTA级别的模型,而无需专有或未公开的数据集。最终实验结果显示,LLaMA-13B在大多数基准测试中要优于GPT-3(175B),同时LLaMA-65B与最好的模型Chinchilla-70B、PaLM-540B相比具有竞争力。基于更多的参数会带来更好的性能

文章图片
#语言模型#人工智能
Reinforcement Learning

通过有监督微调,大语言模型已经初步具备了服从人类指令,并完成各类型任务的能力。然而有监督微调需要大量指令和所对应的标准回复,获取大量高质量的回复需要耗费大量的人力和时间成本。由于,有监督微调通常采用交叉熵损失做为损失函数,目标是调整参数使得模型输出与标准答案完全相同,不能从整体上对模型输出质量进行判断。因此,模型不能适用自然语言多样性,也不能解决微小变化的敏感性问题。强化学习则将模型输出文本作为一

文章图片
#人工智能
    共 11 条
  • 1
  • 2
  • 请选择