
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文提出了G-LLaVA智能体,通过构建增强的几何数据集Geo170K,显著提高了多模态大语言模型在几何问题解决中的表现。论文题目: G-LLaVA: Solving Geometric Problem with Multi-Modal Large Language Model论文链接: https://arxiv.org/abs/2312.11370PS: 欢迎大家扫码关注公众号,我们一起在AI

文章提出了一种名为C4MMD的框架,通过链式思维方法增强智能体对多模态隐喻的检测能力,显著提高了模型的表现。论文题目: Exploring Chain-of-Thought for Multi-modal Metaphor Detection论文链接: https://aclanthology.org/2024.acl-long.6/PS: 欢迎大家扫码关注公众号,我们一起在AI的世界中探索前行,

本文提出了一种新的离线强化学习算法Q-SFT,通过将Q值学习转化为监督微调问题,从而有效地在多回合任务中微调预训练的智能体模型,提升其在语言生成和机器人控制等任务中的表现。论文题目: Q-SFT: Q-Learning for Language Models via Supervised Fine-Tuning论文链接: https://arxiv.org/abs/2411.05193PS: 欢迎

本文提出了G-LLaVA智能体,通过构建增强的几何数据集Geo170K,显著提高了多模态大语言模型在几何问题解决中的表现。论文题目: G-LLaVA: Solving Geometric Problem with Multi-Modal Large Language Model论文链接: https://arxiv.org/abs/2312.11370PS: 欢迎大家扫码关注公众号,我们一起在AI

LLaMA 模型集合由 Meta AI 于 2023 年 2 月推出, 包括四种尺寸(7B 、13B 、30B 和 65B)。由于 LLaMA 的 开放性和有效性, 自从 LLaMA 一经发布, 就受到了研究界和工业界的广泛关注。LLaMA 模型在开放基准的各 种方面都取得了非常出色的表现, 已成为迄今为止最流行的开放语言模型。大批研究人员通过指令调整或持续 预训练扩展了 LLaMA 模型。特别需

优雅规范的注释有助于对代码理解,易于与人合作开发,提高效率。但若没有自动化的注释会让写注释耗时耗力。可以自动生成功能和用途简介、参数、返回值、创建人、创建时间、修改人、修改时间、版权声明、异常抛出。下面介绍在 pyCharm中使用两种方式的注释:1. 文件头规范自动生成在文件头加上创建人、创建时间、修改人、修改时间、版权声明;有些规范建义这些元素写在文件头部。可通过如下方法设置:File->

前面提到, Adapter Tuning 存在训练和推理延迟, Prefix Tuning 难训且会减少原始训练数据中的有效文 字长度, 那是否有一种微调办法, 能改善这些不足呢, 在这样的动机驱动下, 有研究者提出了 LoRA(论文:LoRA: Low-Rank Adaptation of Large Language Models) ,LoRA 是 Low-Rank Adaptation 的简

文章介绍了Mini-Omni模型,一种能够实现实时语音交互的端到端多模态大语言模型,并提出了提升语音生成效率的方法。论文题目: Mini-Omni: Language Models Can Hear, Talk While Thinking in Streaming论文链接: https://arxiv.org/abs/2408.16725PS: 欢迎大家扫码关注公众号,我们一起在AI的世界中探索

造成灾难性遗忘的一个主要原因是, 传统模型假设数据分布是固定或平稳的, 训练样本是独立同分布的, 所 以模型可以一遍又一遍地看到所有任务相同的数据, 但当数据变为连续的数据流时, 训练数据的分布就是非平稳的, 模型从非平稳的数据分布中持续不断地获取知识时, 新知识会干扰旧知识, 从而导致模型性能的快速下 降, 甚至完全覆盖或遗忘以前学习到的旧知识。灾难遗忘问题多年来一 直被人们所认识并被广泛报道,

目前,基于 Transformers 架构的大型语言模型 (LLM),如 GPT、T5 和 BERT,已经在各种自然语言处理 (NLP) 任务中取得了 SOTA 结果。将预训练好的语言模型(LM) 在下游任务上进行微调已成为处理 NLP 任务的一种 范式。与使用开箱即用的预训练 LLM (例如: 零样本推理) 相比, 在下游数据集上微调这些预训练 LLM 会带来 巨大的性能提升。但是, 随着模型变








