文章目录论文信息摘要主要工作Model-agnosticmetalearning(MAML)GraphFLFramework1.GraphFL用于联合GraphSSC和非IID图数据2.GraphFed用于联合GraphSSC和新标签3.通过自训练来利用未标记节点论文信息原文地址:https://arxiv.org/abs/2012.04187摘要Graph-basedsemi-supervisednodeclassification(GraphSSC)haswideapplications,rangingfromnetworkingandsecuritytodataminingandmach
方法:FedCoin目的:解决SV的计算既费时又费钱的问题结论:Fed-Coin可以通过精确计算SVs来提升联邦学习参与者的高质量数据,并给出了达成区块共识所需计算资源的上限,为非数据所有者提供了在联邦学习中发挥作用的机会。局限性:(关于区块链 非研究领域仅了解了下 博弈论中的ShapleyValue)SV的计算既费时又费钱——>提出Fed-Coin:基于区块链的点对点支付系统,用于联邦学习的SV利益分配。在其中,区块链共识实体计算SVs,并基于Sharply(PoSap)协议证明创建新块。——>流行的比特币网络:共识实体通过解决无意义的谜题来“挖掘”新的区块。——>Fed-Coin可以通过精
Biscotti:ABlockchainSystemforPrivateandSecureFederatedLearning"译为“Biscotti:一个用于隐私和安全联邦学习的区块链系统”这是IEEETransactionsonParallelandDistributedSystems21(简称TPDS)上的一篇联邦学习和区块链相结合的文章。众所周知,TPDS是CCFA类期刊,上面论文的质量都不错,因此选读了这篇论文。以下内容,是自己阅读完后的一些小笔记,有不懂和疑问的地方,记录的都是个人认为重点的地方。原文链接:Biscotti:ABlockchainSystemforPrivateand
文章:Privacy-PreservingByzantine-RobustFederatedLearningviaBlockchainSystems背景原因解决方案工作贡献成果预备知识联邦学习投毒攻击投毒攻击分类数据投毒和模型投毒攻击同态加密系统模型威胁模型核心系统算法局部计算局部梯度归一化判断梯度权重聚合算法会议来源:IEEETRANSACTIONSONINFORMATIONFORENSICSANDSECURITY,VOL.17,2022背景原因1.分布式机器学习在海量数据上实现了更大模型的训练,但仍然容易受到安全和隐私泄露的影响2.保护隐私的联邦学习方案之一是使用同态加密方案(如Paill
个人阅读笔记,如有错误欢迎指出!会议:NDSS2022 [2009.03561]LocalandCentralDifferentialPrivacyforRobustnessandPrivacyinFederatedLearning(arxiv.org)问题: 尽管联邦学习能在一定程度上保护数据隐私,但也存在隐私和鲁棒性漏洞主要贡献: 首次发现LDP和CDP都可以抵御后门攻击 发现仅在FL的非攻击者上应用LDP可以提高后门攻击的准确性 LDP和CDP可以防止(白盒)成员推断 LDP与CDP均不能防御属性推断攻击
题目FederatedLargeLanguageModel:APositionPaper作者ChaochaoChen,XiaohuaFeng,JunZhou,JianweiYin,XiaolinZheng来源arXiv主要工作FL与LLM结合的一个探索,从三个阶段来说明FL怎么和LLM结合其他摘要大规模语言模型(LLM)受到了广泛的关注,并应用在各个领域,但它们在现实场景中的发展面临挑战。这些挑战源于公共领域数据稀缺以及在私有领域数据方面需要维护隐私。为了解决这些问题,联邦学习(FL)已成为一项有前景的技术,它能够在保留分散数据的同时实现共同训练共享模型。我们提出了联邦大规模语言模型的概念,其
摘要DENSE的主要特点单轮通信学习:DENSE允许中央服务器在单次通信轮次中学习全局模型,有效降低了通信成本。现有单轮FL方法的局限性:大多数现有的单轮FL方法不切实际或存在固有限制,例如需要公共数据集,客户端模型同质化,以及需要上传额外的数据或模型信息。DENSE的创新解决方案:采用两阶段框架:数据生成阶段和模型蒸馏阶段。数据生成阶段:使用客户端上传的本地模型集合训练生成器(训练了一个同时考虑相似性、稳定性和可转移性的生成器),生成合成数据。模型蒸馏阶段:将集合模型的知识蒸馏到全局模型中。无需额外信息交换:只需在客户端和服务器之间传输模型参数。无需辅助数据集:不需要额外的训练数据。考虑模型
文章目录I.CONTRIBUTIONII.ASSUMPTIONSANDTHREATMODELA.AssumptionsB.ThreatModelIII.SYSTEMDESIGNA.DesignOverviewB.BlockDesignC.InitializationD.RoleSelectionE.StorageProtocolF.AggregationProtocolG.ProofofReliabilityH.BlockchainConsensusIV.SECURITYANALYSIS论文地址:https://ieeexplore.ieee.org/abstract/document/101
这是发表在2022IEEETRANSACTIONSONINFORMATIONFORENSICSANDSECURITY(TIFS)上的一篇文章目录abstract主要贡献II.RELATEDWORKB.Blockchain-BasedFederatedLearningIII.PRELIMINARIESA.FederatedLearningB.PoisoningAttacksCheon-Kim-Kim-Song(AFHEsheme)智能合约IV.PROBLEMFORMULATIONB.问题定义C.威胁模型D.设计目标方案设计B.ConstructionofPBFL本地计算归一化判断模型聚合max函
背景机器学习模型对数据的分析具有很大的优势,很多敏感数据分布在用户各自的终端。若大规模收集用户的敏感数据具有泄露的风险。对于安全分析的一般背景就是认为有n方有敏感数据,并且不愿意分享他们的数据,但可以分享聚合计算后的结果。联邦学习是一种训练数据在多方训练,然后聚合结果得到最终的中心化模型。其中的关键就是多方结果的安全聚合。风险模型有很多用户,假设用户都是诚实但好奇的,即会遵守协议规则,但会通过拼凑数据获取敏感信息。换句话说就是恶意的,很可能执行不好的行为。安全聚合问题的定义、目标和假设风险模型假设用户和中心服务器都是诚实且好奇的。如果用户是恶意的,他们有能力在不被监测的情况下影响聚合结果。安全