
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
隐语”是开源的可信隐私计算框架,内置 MPC、TEE、同态等多种密态计算虚拟设备供灵活选择,提供丰富的联邦学习算法和差分隐私机制开源项目国际机器学习大会(International Conference on Machine Learning,简称 ICML)是机器学习领域最重要和最有影响力的学术会议之一,ICML 2024 于当地时间7月21日至7月27日正在奥地利维也纳召开。

前言:基于差分隐私随机梯度下降法 (DP-SGD) 是深度学习中最流行的 DP 训练方法,与传统的随机梯度下降算法(SGD)的主要不同点是:DP-SGD算法在每一轮迭代过程中都会进行梯度裁剪和添加高斯噪声。本篇内容将对深度学习下的DP-SGD进行分析总结,隐语在此方向也有相关探索,敬请期待后续开源进展。
ABY2.0定义了新的sharing,扩展两输入乘法门到多输入乘法门,且其online阶段通信量与输入个数无关。ABY2.0与ABY均是在半诚实模型下的两方安全计算框架,分为setup和online阶段,ABY2.0相比ABY提高了online阶段的效率。Online:对于p*q矩阵与q*r矩阵的乘法,结果矩阵的维度是p*r,通信量是O(pr),相比之前协议的O(pqr)有了很大的提升。总之,AB

联邦学习将传统机器学习中的数据聚合转换成模型聚合,即client和server在联邦训练过程中需要进行模型传输或梯度传输。随着任务复杂性和对模型性能要求的逐渐提升,神经网络的层数呈逐渐加深的趋势,模型参数也相应的越来越多。

隐语”是开源的可信隐私计算框架,内置 MPC、TEE、同态等多种密态计算虚拟设备供灵活选择,提供丰富的联邦学习算法和差分隐私机制开源项目国际机器学习大会(International Conference on Machine Learning,简称 ICML)是机器学习领域最重要和最有影响力的学术会议之一,ICML 2024 于当地时间7月21日至7月27日正在奥地利维也纳召开。

前言:基于差分隐私随机梯度下降法 (DP-SGD) 是深度学习中最流行的 DP 训练方法,与传统的随机梯度下降算法(SGD)的主要不同点是:DP-SGD算法在每一轮迭代过程中都会进行梯度裁剪和添加高斯噪声。本篇内容将对深度学习下的DP-SGD进行分析总结,隐语在此方向也有相关探索,敬请期待后续开源进展。
隐私计算、密码学、机器学习、数据库
前言:隐语awesome-PETs(PETs即Privacy-Enhancing Technologies ,隐私增强技术)精选业内优秀论文,按技术类型进行整理分类,旨在为隐私计算领域的学习研究者提供一个高质量的学习交流社区。awesome-pets包含:安全多方计算(MPC)、零知识证明(ZPK)、联邦学习(FL)、差分隐私(DP)、可信执行环境(TEE)、隐私求交(PSI)等系列主题论文!继上

通过课题组研究发现,尽管安全多方学习机制底层的安全多方计算协议为计算过程提供了严格的安全性保障,经由安全多方学习训练得到的模型依然无法抵抗那些仅依赖模型访问的攻击手段,例如成员推理攻击。另一方面,尽管差分隐私技术能够帮助抵御成员推理攻击,其所要求的大量随机噪声会给模型带来较大的精度损失。(1)用于简化模型结构的数据无关特征提取方法,利用数据无关的特征提取器,如预训练模型、启发式规则等,预先提取数据

常用的HE、MPC等密态技术计算的函数逻辑与明文是一致的,因此其精度影响主要来自于定点数近似,即它们需要将高精度的浮点数映射到固定位数的定点数运算中(也存在一些可以完美模拟浮点计算单元的密态技术,但还处于研究阶段,实践中没有定点数应用广泛)。在联合建模场景中,MPC所能支持的数据规模则会大幅降低,在不同的安全假设条件下,性能存在较大差异,如经典金融风控场景中,如在较为宽松的诚实大多数条件下,约可实








