
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
摘要:基础模型(Foundation Models,简称FMs)是通用型人工智能模型,最近推动了多个全新生成式AI应用的发展。FMs的快速进步为下一代无线网络的愿景提供了重要的背景支持,在这些网络中,联邦学习(Federated Learning,简称FL)是分布式网络智能的关键使能技术。自然地,FMs有能力提升FL的性能,而FL也可以利用分散的数据和计算资源来辅助FMs的训练。特别是,我们讨论了
摘要:随着对大型语言模型(LLMs)研究兴趣的激增,一个自然的问题是如何对预训练的LLMs进行微调,以满足企业和个人用户的特定需求,同时保护微调过程中所使用数据的隐私。本文提出了一种名为TITANIC的新型分布式训练范式,允许LLMs在生成私人数据的客户端设备上直接进行隐私保护的微调,同时满足计算和通信带宽的资源限制。我们的实验结果表明,TITANIC在训练性能方面优于传统的联邦学习,同时保护了数
摘要:联邦学习(FL)作为一种新兴技术,为工业物联网(IoT)中的机器学习提供了新的可能性。然而,在实际的物联网应用中,联邦学习面临三大主要挑战:统计数据的异质性、资源的限制以及公平性的维护。为了确保方法的可靠性,我们进行了联邦误差界的理论分析,从而为算法的公平性提供了坚实的理论支持。结果表明,在跨越不同地理位置的场景中,FedASA在准确性方面比现有的最先进方法提高了最高达13.27%。这些结果
最近,具有数十亿参数的大模型的出现展示出了令人惊叹的类人智能,为通过增强语义和上下文理解来推进语义通信提供了新的途径。针对于此,来自暨南大学、清华大学以及休斯顿大学的研究团队从潜在的应用到系统设计全方面地研究了大模型(Large Models, LMs)支持的语义通信系统。首先,研究人员提出了一种新的语义通信架构,通过引入一个存储模块,将LMs无缝集成到语义通信中。然后,研究人员通过介绍潜在的典型
摘要:随着大型语言模型应用在移动设备上的普及和需求的增加,资源有限的移动终端难以高效地执行大型模型推理任务。传统的基于深度强化学习(DRL)的方法已被用于将大型语言模型(LLMs)推理任务卸载到服务器上。然而,现有的DRL解决方案存在数据效率低下、对延迟要求不敏感以及对任务负载变化适应性差等问题,这将降低LLMs的性能。在本文中,我们提出了一种基于主动推理的大型语言模型推理任务卸载和云边计算资源分