logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

联邦学习论文分享:Diffusion Model-Based Data Synthesis AidedFederated Semi-Supervised Learning

人工标注的标签,比如在图像分类中:一张猫的照片 → 标签是 “cat”一张狗的照片 → 标签是 “dog”

#机器学习#人工智能#深度学习
联邦学习论文分享:Privacy-Enhancing Paradigms within Federated Multi-Agent Systems

研究背景:大语言模型(LLM)驱动的多智能体系统(MAS)在复杂问题求解中非常有效,但在敏感领域应用时面临隐私保护的挑战。提出的新概念:作者提出了 联邦多智能体系统(Federated MAS) 的概念,并指出它与传统联邦学习(FL)的根本区别。核心挑战:在开发 Federated MAS 时,需要解决的几个关键问题:不同智能体之间的隐私协议不一致;多方对话的结构差异;动态变化的对话网络结构。解决

联邦学习论文分享:Privacy-Enhancing Paradigms within Federated Multi-Agent Systems

研究背景:大语言模型(LLM)驱动的多智能体系统(MAS)在复杂问题求解中非常有效,但在敏感领域应用时面临隐私保护的挑战。提出的新概念:作者提出了 联邦多智能体系统(Federated MAS) 的概念,并指出它与传统联邦学习(FL)的根本区别。核心挑战:在开发 Federated MAS 时,需要解决的几个关键问题:不同智能体之间的隐私协议不一致;多方对话的结构差异;动态变化的对话网络结构。解决

联邦学习论文分享:PPC-GPT: Federated Task-Specific Compression of Large LanguageModels via Pruning and Chain

框架介绍PPC-GPT 是一个隐私保护的联邦学习框架,用于将大型语言模型(LLM)压缩成任务特定的小型模型(SLM)。压缩过程结合了剪枝(pruning)和链式推理蒸馏(COT distillation)。DP扰动数据(DP Perturbed Data):对客户端数据进行差分隐私保护。合成数据生成(Synthetic Data Generation):生成可用于训练的小规模数据。逐层结构化剪枝(

#剪枝
联邦学习论文分享:PPC-GPT: Federated Task-Specific Compression of Large LanguageModels via Pruning and Chain

框架介绍PPC-GPT 是一个隐私保护的联邦学习框架,用于将大型语言模型(LLM)压缩成任务特定的小型模型(SLM)。压缩过程结合了剪枝(pruning)和链式推理蒸馏(COT distillation)。DP扰动数据(DP Perturbed Data):对客户端数据进行差分隐私保护。合成数据生成(Synthetic Data Generation):生成可用于训练的小规模数据。逐层结构化剪枝(

#剪枝
联邦学习论文分享:Federated In-Context LLM Agent Learning

摘录本地数据中掌握工具所需的关键信息。所有客户端的知识摘要汇总形成。

#人工智能#机器学习
联邦学习论文分享:Federated In-Context LLM Agent Learning

摘录本地数据中掌握工具所需的关键信息。所有客户端的知识摘要汇总形成。

#人工智能#机器学习
联邦学习论文分享:GPT-FL: Generative Pre-Trained Model-AssistedFederated Learning

GPT-FL 是一个。使用大模型生成;先在服务器端用这些合成数据训练一个下游模型;再在联邦学习流程中,用客户端的私有数据对下游模型进行微调。:GPT-FL 在上都超过了现有 SOTA 方法。合成数据生成的下游模型能;这样加快了收敛速度 → 带来显著的准确率提升。:无论目标数据是,GPT-FL 都有明显提升。

#深度学习#人工智能
了解一下大模型微调

微调在本质上就是学习这些“改动量”,而不是从头学习所有参数,这样既能保证原来的已学到的能力还在,也能学一些新知识在新任务上表现更好一点。但如果,在微调的时候,忘记了原来的能力,反而只在新任务上表现良好,这就是“灾难性遗忘”,这个在迁移学习领域中,是一个重点难题。

#深度学习#人工智能#LoRA
联邦学习论文分享:PrE-Text: Training Language Models onPrivate Federated Data in the Age of LLMs

1.客户端设置(Private clients setup)总共有N 个用户设备(客户端),每个客户端 i 拥有一个语言数据集 Di​,里面包含若干语言样本。训练客户端 Ctrain:数据可以用于训练模型或生成合成数据。测试客户端 Ctest​:数据完全不可见,仅用于最终评估模型性能。假设每个客户端数据集 Di 都是从某个分布 D^ 独立抽取的。2.模型类型划分on-device models(设

#语言模型#人工智能#自然语言处理
    共 17 条
  • 1
  • 2
  • 请选择