Biscotti:ABlockchainSystemforPrivateandSecureFederatedLearning"译为“Biscotti:一个用于隐私和安全联邦学习的区块链系统”这是IEEETransactionsonParallelandDistributedSystems21(简称TPDS)上的一篇联邦学习和区块链相结合的文章。众所周知,TPDS是CCFA类期刊,上面论文的质量都不错,因此选读了这篇论文。以下内容,是自己阅读完后的一些小笔记,有不懂和疑问的地方,记录的都是个人认为重点的地方。原文链接:Biscotti:ABlockchainSystemforPrivateand
GPT在网络安全领域的应用案例写在最前面论文1:Chatgpt/CodeX引入会话式APR范例+利用验证反馈+LLM的长期上下文窗口:更智能的反馈机制、更有效的信息合并策略、更复杂的模型结构、鼓励生成多样性和GPT类似的步骤:ConversationalAPR对话式APRTurn1:Turn2:Turn3:设计决策PromptengineeringMaximumchainlength论文2:ChatGPT+自协作代码生成+角色扮演+消融实验代码生成与自协作框架摘要自协作框架原理1、DOL任务分配2、共享黑板协作3、Instance实例化案例说明简单任务:基本操作复杂任务:游戏开发论文3:Cha
文章目录一、导读二、背景2.1主要贡献2.2网络介绍:DeSTSeg三、方法3.1SyntheticAnomalyGeneration合成异常生成3.2DenoisingStudent-TeacherNetwork去噪教师学生网络3.3SegmentationNetwork分割网络四、实验结果一、导读DeSTSeg:SegmentationGuidedDenoisingStudent-TeacherforAnomalyDetection论文为:论文地址:https://arxiv.org/pdf/2211.11317二、背景工业异常检测旨在发现产品的异常区域,在工业质量检测中发挥着重要作用。在
数学大神陶哲轩发帖称,自己的写论文神器终于升级了!此前,他经常使用的工具是TeXnicCenter+MiKTeX,并且已经保持了这个习惯将近十年。现在,根据读者的建议,他升级了一波工具,现在用的是VSCode+TeXLive+LaTeXworkshop+GitHubCopilot。VSCode初印象陶哲轩表示,每隔五到十年,自己都会试图将TeXLaTeX编辑器切换到更现代的编辑器。这个过程重复了好几次,甚至从90年代中期就开始了。那时,他还在读研究生,刚开始用UNIXshell中的vi来写Tex。现在,陶哲轩在这里记录下了自己使用这些工具的第一印象,并表示对于很多VSCode用户看来,可能会显
昨晚,网上开始盛传「LK-99被韩国官方打假,不是室温超导体」的新闻。但实际上,该机构其实并没有拿到样品,只是对论文数据和视频研究后得出的结论。并且,其他韩国的大学也已经开始了自己的复现研究。恰在此时,韩国团队第二篇论文三作HuynTakKim放出了第二个LK-99半悬浮视频。他对于全世界涌起的LK-99复现热潮,也表示非常欢迎,拭目以待。今天,华科大团队和印度CSIR团队都在arXiv上发文,结论异曲同工,都比较积极——LK-99材料有较大潜力具备超导性。西班牙团队则发文解释了LK-99为何复现如此困难的原因:LK-99是一种多相异质结构,具有共存的非超导成分,因此测量结果非常具有迷惑性。对
TrustFed:AFrameworkforFairandTrustworthyCross-DeviceFederatedLearninginIIoT"译为“TurstFed:在工业物联网中一种公平可信的跨设备联邦学习框架”这篇文章是IEEETransactionsonIndustrialInformatics21上的一篇联邦学习和区块链相结合应用到物联网中的文章。总体来看,本文内容还不错,明确指出了现存的主要问题,并针对这几个问题进行了解答,对读者的帮助还是很大的,但是一个框架型方案,对具体的细节解释还不够深入!以下是个人根据自身读后的感悟,并整理的一些学习笔记,随性记录,并不一定按照文章结
Privacy-PreservingByzantine-RobustFederatedLearningviaBlockchainSystems可译为“利用区块链实现隐私保护的拜占庭鲁棒性联邦学习”这篇是今年八月份被TIFS2022(CCFA)收录的文章,写的利用全同态加密和区块链技术解决联邦学习中隐私问题和可信问题(虽然区块链仅仅只是存储的作用,也稍微提了一下)。精读完这篇文章,整体感觉还不错,毕竟是CCFA类期刊。下面是自己读后感,根据自己的语言来做了一些笔记,也相当于回顾。其中,有理解不到位的地方望指正,建议读者还是看原文。原文链接:Privacy-PreservingByzantine-
Privacy-PreservingByzantine-RobustFederatedLearningviaBlockchainSystems可译为“利用区块链实现隐私保护的拜占庭鲁棒性联邦学习”这篇是今年八月份被TIFS2022(CCFA)收录的文章,写的利用全同态加密和区块链技术解决联邦学习中隐私问题和可信问题(虽然区块链仅仅只是存储的作用,也稍微提了一下)。精读完这篇文章,整体感觉还不错,毕竟是CCFA类期刊。下面是自己读后感,根据自己的语言来做了一些笔记,也相当于回顾。其中,有理解不到位的地方望指正,建议读者还是看原文。原文链接:Privacy-PreservingByzantine-
ChatGPT引爆的AI热潮也「烧到了」金融圈。近来,彭博社的研究人员也开发了一个金融领域的GPT——BloombergGPT,有500亿参数。GPT-4的横空出世,让许多人浅尝到了大型语言模型的强大能力。然而,OpenAI不open。业界许多人纷纷开始做GPT的克隆,而且许多ChatGPT平替的模型都是基于已经开源的模型上构建,尤其是Meta开源的LLMa模型。比如,斯坦福的Alpaca、UC伯克利联手CMU、斯坦福等骆马(Vicuna),初创公司Databricks的Dolly等等。针对不同任务和应用构建的各种类ChatGPT的大型语言模型,在整个领域呈现出百家争鸣之势。那么问题来了,研究
ChatGPT引爆的AI热潮也「烧到了」金融圈。近来,彭博社的研究人员也开发了一个金融领域的GPT——BloombergGPT,有500亿参数。GPT-4的横空出世,让许多人浅尝到了大型语言模型的强大能力。然而,OpenAI不open。业界许多人纷纷开始做GPT的克隆,而且许多ChatGPT平替的模型都是基于已经开源的模型上构建,尤其是Meta开源的LLMa模型。比如,斯坦福的Alpaca、UC伯克利联手CMU、斯坦福等骆马(Vicuna),初创公司Databricks的Dolly等等。针对不同任务和应用构建的各种类ChatGPT的大型语言模型,在整个领域呈现出百家争鸣之势。那么问题来了,研究