
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
LoRA(Low-Rank Adaptation)是一种用于高效微调大规模预训练语言模型的新方法。随着模型规模不断增长,如 GPT-3 级别的超大模型在多个下游任务上的应用需求越来越高,但传统的全参数微调方式不仅计算成本巨大,还需要为每个任务保存一套完整模型,导致存储与部署开销极高。LoRA 针对这一痛点提出了一个关键观点:大型模型在适配下游任务时,其权重更新往往存在“低秩特性”,也就是说,模型的
微调预训练模型已经成为机器学习中的常规做法,但这通常会消耗大量计算资源。LoRA(低秩适配)方法通过减少可训练参数的数量,使得微调更加高效。本文介绍的LoRA-SB方法,通过结合低秩更新与最优初始化策略,提供了一种新的解决方案。该方法旨在在大幅减少参数的同时,紧密地逼近完整微调(FT)的性能。
Vision-Language Models(VLMs)近年来取得了突破性进展,但现有的大多数评测基准几乎全部集中在 RGB 图像领域。对于RGB–热成像(RGB-Thermal)配对图像的理解,目前仍是研究中的巨大空白。为了填补这一空缺,论文提出了第一个专注于 RGB–热成像理解能力的密集型 VLM 基准——RGB-Th-BenchRGB-Th-Bench 的出现填补了 VLM 评测的重要缺口。
近年来,大语言模型(LLMs)参数量持续膨胀,使得全量微调在算力与存储方面成本高昂。LORA(Low-Rank Adaptation)作为参数高效微调(PEFT)中最具代表性的技术,通过对模型权重矩阵进行低秩分解,实现仅训练少量新增参数的目标,大幅降低显存与计算消耗,现已成为工业界部署大模型的主流方案。本文对 LORA 原理、性能优势、研究趋势与典型改进方向进行梳理,并结合 HuggingFace
论文标题:VMamba: Visual State Space Model论文作者:Yue Liu,Yunjie Tian,Yuzhong Zhao,Hongtian Yu,Lingxi Xie,Yaowei Wang,Qixiang Ye,Jianbin Jiao,Yunfan Liu发表会议 :NeurIPS2024论文代码:https://github.com/MzeroMiko/VMamb
花样滑冰被誉为“冰上的艺术”,其评估不仅依赖于运动员的技术动作,还包括艺术表现力的评估。现有的花样滑冰数据集多集中于单一任务,如动作识别或评分,缺乏全面的技术和艺术性评估。为了弥补这一空白,本文提出了FSAnno数据集及FSBench基准,前者包含了技术元素和艺术性评估的多层次注释,后者提供了一个全面的基准平台,用于测试多模态大语言模型(MLLM)在花样滑冰领域的理解能力。
统一视觉-语言模型通过指令控制在共享架构下完成多种视觉与语言任务,但这一特性也带来了新的安全风险,即对抗样本需要在多个不可预测的任务指令下同时保持攻击有效性。本文提出了CrossVLAD,一个基于MSCOCO并结合 GPT-4 辅助标注的跨任务对抗攻击评测基准,用于系统评估统一视觉-语言模型在多任务场景下的对抗鲁棒性。该基准聚焦于目标类别篡改攻击,并提出新的跨任务成功率指标,以衡量对抗样本在多个任







