logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【RAG 论文】RAFT:适用于 domain specific RAG 的 LLM

RAFT:适用于 domain specific RAG 的 LLM,结合了 SFT 和 RAG 的思想,实现了特定领域进行 QA 的好的效果。

文章图片
#语言模型#自然语言处理#人工智能 +1
【LLM 论文】UPRISE:使用 prompt retriever 检索 prompt 来让 LLM 实现 zero-shot 解决 task

总的来说,这篇论文提出了一个很新颖的思路:prompt retriever,从而提高 LLM 的 zero-shot 的能力。同时还研究了 prompt retriever 从训练的任务类型推广到其他未见过的任务类型,以及从小的 LLM 推广到更大规模的。

文章图片
#RAG#自然语言处理#语言模型 +2
【Text2SQL 论文】QDecomp:探索 CoT-style 的 prompt 来解决 Text2SQL

本文基于 Codex 的 LLM 来探索了 CoT-style 的 prompting 效果,增强了 LLM 对 Text2SQL 解析的推理能力。论文发现了 CoT 在 Text2SQL 任务中会出现错误传播问题,本文提出的 QDecomp 方法是缓解 LLM 多步骤推理中错误传播问题的尝试之一,之后值得对这个问题进行更深一步的探讨。

文章图片
#人工智能#语言模型#自然语言处理
【Text2SQL 论文】MCS-SQL:利用多样 prompts + 多项选择来做 Text2SQL

MCS-SQL 利用 LLM 的输出对 ICL exemplars 敏感的特点,通过变换 exemplars 的选择和呈现顺序,构建出多个 prompts 来得到多个候选 SQL,然后再过滤后引导 LLM 从中选出最精确的 SQL。

文章图片
#数据库#语言模型#自然语言处理
Windows Terminal 使用 ssh 连接阿里云服务器

在本地生成一对ssh密钥;将 C:\user\<username>\.ssh\id_rsa.pub 打开,复制其中的全部公钥内容;在阿里云官网的服务器控制台中,找到密钥管理,选择新添加一个密钥,将公钥信息填入进去;Windows Terminal的设置中增加以下内容:list下面添加:{"guid": "{27af5698-1e5f-4178-a34b-8623d8d8ec22}","

#ssh#linux#阿里云
【RAG 论文】Chain-of-Note:为 RAG 引入 CoT 让模型生成阅读笔记来提高面对噪音文档和未知场景的鲁棒性

Chain-of-Note 提示:为 RAG 引入 CoT 让模型生成阅读笔记来提高面对噪声文档和未知场景的鲁棒性

文章图片
#人工智能#RAG#自然语言处理 +1
CronusVLA:通过多帧 VLA 建模实现高效且稳健的操控 | AAAI 26 Oral

框架创新:提出 “单帧预训练 + 多帧后训练” 的两阶段范式,首次实现 “高效多帧 VLA 建模”,兼顾性能与速度;技术: 特征块+跨帧解码器+多帧正则化的三合一设计基准创新:提出 SimplerEnv-OR,填补 VLA 模型鲁棒性评估的空白,支持 24 种时空干扰的定量测试;可兼容现有VLA模型(OpenVLA等),即插即用CronusVLA 的核心突破在于“用特征级多帧建模替代图像级多帧输入

文章图片
#人工智能#语言模型#机器人
【具身智能】Evo-1:超越 SmolVLA,让具身萌新也能简单上手

轻量化:0.77B 参数,大幅降低训练 / 部署成本;免预训练:无需大规模机器人数据,数据收集成本骤降;强泛化:两阶段训练保护语义表征,面对干扰(如背景变化、目标移位)仍稳定;高实用:实时推理 + 低显存,适配消费级 GPU 和真实机器人场景。为推动未来研究,作者团队公开了代码、训练数据和模型权重,以鼓励轻量级高性能 VLA 模型的进一步研究与实际开发。

文章图片
#人工智能#机器人#语言模型
【Text2SQL】Spider 数据集

模型将被在不同的复杂 SQL、复杂数据库、复杂 domains 上被测试,要求模型能够对 question 理解语义,并对新的数据库有泛化能力。任务不评估模型生成 value 的能力,因为这个 benchmark 侧重评估预测出正确的 SQL 结构和 columns,数据集中也被排除了需要常识推理和数学计算的 querys。论文工作还对数据库的 table names 和 column names

文章图片
#深度学习#人工智能#自然语言处理
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择