期刊文献+
共找到77篇文章
< 1 2 4 >
每页显示 20 50 100
基于可解释性的不可见后门攻击研究
1
作者 郑嘉熙 陈伟 +1 位作者 尹萍 张怡婷 《信息安全研究》 北大核心 2025年第1期21-27,共7页
深度学习在各种关键任务上取得了显著的成功.然而,最近的研究表明,深度神经网络很容易受到后门攻击,攻击者释放出对良性样本行为正常的反向模型,但将任何触发器施加的样本错误地分类到目标标签上.与对抗性样本不同,后门攻击主要实施在... 深度学习在各种关键任务上取得了显著的成功.然而,最近的研究表明,深度神经网络很容易受到后门攻击,攻击者释放出对良性样本行为正常的反向模型,但将任何触发器施加的样本错误地分类到目标标签上.与对抗性样本不同,后门攻击主要实施在模型训练阶段,用触发器干扰样本,并向模型中注入后门,提出了一种基于可解释性算法的不可见后门攻击方法.与现有的任意设置触发掩膜的工作不同,精心设计了一个基于可解释性的触发掩膜确定,并采用最新型的随机像素扰动作为触发器样式设计,使触发器施加的样本更自然和难以察觉,用以规避人眼的检测,以及对后门攻击的防御策略.通过在CIFAR-10,CIFAR-100和ImageNet数据集上进行了大量的对比实验证明该攻击的有效性和优越性.还使用SSIM指数评估所设计的后门样本与良性样本之间的差异,得到了接近0.99的评估指标,证明了生成的后门样本在目视检查下是无法识别的.最后还证明了攻击的抗防御性,可以抵御现有的后门防御方法. 展开更多
关键词 深度学习 深度神经网络 后门攻击 触发器 可解释性 后门样本
在线阅读 下载PDF
基于感知相似性的多目标优化隐蔽图像后门攻击
2
作者 朱素霞 王金印 孙广路 《计算机研究与发展》 EI CSCD 北大核心 2024年第5期1182-1192,共11页
深度学习模型容易受到后门攻击,在处理干净数据时表现正常,但在处理具有触发模式的有毒样本时会表现出恶意行为.然而,目前大多数后门攻击产生的后门图像容易被人眼察觉,导致后门攻击隐蔽性不足.因此提出了一种基于感知相似性的多目标优... 深度学习模型容易受到后门攻击,在处理干净数据时表现正常,但在处理具有触发模式的有毒样本时会表现出恶意行为.然而,目前大多数后门攻击产生的后门图像容易被人眼察觉,导致后门攻击隐蔽性不足.因此提出了一种基于感知相似性的多目标优化隐蔽图像后门攻击方法.首先,使用感知相似性损失函数减少后门图像与原始图像之间的视觉差异.其次,采用多目标优化方法解决中毒模型上任务间冲突的问题,从而确保模型投毒后性能稳定.最后,采取了两阶段训练方法,使触发模式的生成自动化,提高训练效率.最终实验结果表明,在干净准确率不下降的情况下,人眼很难将生成的后门图像与原始图像区分开.同时,在目标分类模型上成功进行了后门攻击,all-to-one攻击策略下所有实验数据集的攻击成功率均达到了100%.相比其他隐蔽图像后门攻击方法,具有更好的隐蔽性. 展开更多
关键词 后门攻击 隐蔽后门 投毒攻击 深度学习 模型安全
在线阅读 下载PDF
CheatKD:基于毒性神经元同化的知识蒸馏后门攻击方法
3
作者 陈晋音 李潇 +3 位作者 金海波 陈若曦 郑海斌 李虎 《计算机科学》 CSCD 北大核心 2024年第3期351-359,共9页
深度学习模型性能不断提升,但参数规模也越来越大,阻碍了其在边缘端设备的部署应用。为了解决这一问题,研究者提出了知识蒸馏(Knowledge Distillation,KD)技术,通过转移大型教师模型的“暗知识”快速生成高性能的小型学生模型,从而实现... 深度学习模型性能不断提升,但参数规模也越来越大,阻碍了其在边缘端设备的部署应用。为了解决这一问题,研究者提出了知识蒸馏(Knowledge Distillation,KD)技术,通过转移大型教师模型的“暗知识”快速生成高性能的小型学生模型,从而实现边缘端设备的轻量部署。然而,在实际场景中,许多教师模型是从公共平台下载的,缺乏必要的安全性审查,对知识蒸馏任务造成威胁。为此,我们首次提出针对特征KD的后门攻击方法CheatKD,其嵌入在教师模型中的后门,可以在KD过程中保留并转移至学生模型中,进而间接地使学生模型中毒。具体地,在训练教师模型的过程中,CheatKD初始化一个随机的触发器,并对其进行迭代优化,以控制教师模型中特定蒸馏层的部分神经元(即毒性神经元)的激活值,使其激活值趋于定值,以此实现毒性神经元同化操作,最终使教师模型中毒并携带后门。同时,该后门可以抵御知识蒸馏的过滤被传递到学生模型中。在4个数据集和6个模型组合的实验上,CheatKD取得了85%以上的平均攻击成功率,且对于多种蒸馏方法都具有较好的攻击泛用性。 展开更多
关键词 后门攻击 深度学习 知识蒸馏 鲁棒性
在线阅读 下载PDF
文本后门攻击与防御综述 被引量:1
4
作者 郑明钰 林政 +2 位作者 刘正宵 付鹏 王伟平 《计算机研究与发展》 EI CSCD 北大核心 2024年第1期221-242,共22页
深度神经网络的安全性和鲁棒性是深度学习领域的研究热点.以往工作主要从对抗攻击角度揭示神经网络的脆弱性,即通过构建对抗样本来破坏模型性能并探究如何进行防御.但随着预训练模型的广泛应用,出现了一种针对神经网络尤其是预训练模型... 深度神经网络的安全性和鲁棒性是深度学习领域的研究热点.以往工作主要从对抗攻击角度揭示神经网络的脆弱性,即通过构建对抗样本来破坏模型性能并探究如何进行防御.但随着预训练模型的广泛应用,出现了一种针对神经网络尤其是预训练模型的新型攻击方式——后门攻击.后门攻击向神经网络注入隐藏的后门,使其在处理包含触发器(攻击者预先定义的图案或文本等)的带毒样本时会产生攻击者指定的输出.目前文本领域已有大量对抗攻击与防御的研究,但对后门攻击与防御的研究尚不充分,缺乏系统性的综述.全面介绍文本领域后门攻击和防御技术.首先,介绍文本领域后门攻击基本流程,并从不同角度对文本领域后门攻击和防御方法进行分类,介绍代表性工作并分析其优缺点;之后,列举常用数据集以及评价指标,将后门攻击与对抗攻击、数据投毒2种相关安全威胁进行比较;最后,讨论文本领域后门攻击和防御面临的挑战,展望该新兴领域的未来研究方向. 展开更多
关键词 后门攻击 后门防御 自然语言处理 预训练模型 AI安全
在线阅读 下载PDF
神经网络后门攻击与防御综述 被引量:1
5
作者 汪旭童 尹捷 +4 位作者 刘潮歌 徐辰晨 黄昊 王志 张方娇 《计算机学报》 EI CAS CSCD 北大核心 2024年第8期1713-1743,共31页
当前,深度神经网络(Deep Neural Network,DNN)得到了迅速发展和广泛应用,由于其具有数据集庞大、模型架构复杂的特点,用户在训练模型的过程中通常需要依赖数据样本、预训练模型等第三方资源.然而,不可信的第三方资源为神经网络模型的安... 当前,深度神经网络(Deep Neural Network,DNN)得到了迅速发展和广泛应用,由于其具有数据集庞大、模型架构复杂的特点,用户在训练模型的过程中通常需要依赖数据样本、预训练模型等第三方资源.然而,不可信的第三方资源为神经网络模型的安全带来了巨大的威胁,最典型的是神经网络后门攻击.攻击者通过修改数据集或模型的方式实现向模型中植入后门,该后门能够与样本中的触发器(一种特定的标记)和指定类别建立强连接关系,从而使得模型对带有触发器的样本预测为指定类别.为了更深入地了解神经网络后门攻击原理与防御方法,本文对神经网络后门攻击和防御进行了体系化的梳理和分析.首先,本文提出了神经网络后门攻击的四大要素,并建立了神经网络后门攻防模型,阐述了在训练神经网络的四个常规阶段里可能受到的后门攻击方式和防御方式;其次,从神经网络后门攻击和防御两个角度,分别基于攻防者能力,从攻防方式、关键技术、应用场景三个维度对现有研究进行归纳和比较,深度剖析了神经网络后门攻击产生的原因和危害、攻击的原理和手段以及防御的要点和方法;最后,进一步探讨了神经网络后门攻击所涉及的原理在未来研究上可能带来的积极作用. 展开更多
关键词 深度神经网络 触发器 后门攻击 后门防御 攻防模型
在线阅读 下载PDF
基于后门攻击的恶意流量逃逸方法
6
作者 马博文 郭渊博 +2 位作者 马骏 张琦 方晨 《通信学报》 EI CSCD 北大核心 2024年第4期73-83,共11页
针对基于深度学习模型的流量分类器,提出了一种利用后门攻击实现恶意流量逃逸的方法。通过在训练过程添加毒化数据将后门植入模型,后门模型将带有后门触发器的恶意流量判定为良性,从而实现恶意流量逃逸;同时对不含触发器的干净流量正常... 针对基于深度学习模型的流量分类器,提出了一种利用后门攻击实现恶意流量逃逸的方法。通过在训练过程添加毒化数据将后门植入模型,后门模型将带有后门触发器的恶意流量判定为良性,从而实现恶意流量逃逸;同时对不含触发器的干净流量正常判定,保证了模型后门的隐蔽性。采用多种触发器分别生成不同后门模型,比较了多种恶意流量对不同后门模型的逃逸效果,同时分析了不同后门对模型性能的影响。实验验证了所提方法的有效性,为恶意流量逃逸提供了新的思路。 展开更多
关键词 后门攻击 恶意流量逃逸 深度学习 网络流量分类
在线阅读 下载PDF
针对电力系统人工智能算法的数据投毒后门攻击方法与检测方案
7
作者 崔晗 薛彤 +1 位作者 王琦 汤奕 《电网技术》 EI CSCD 北大核心 2024年第12期5024-5033,共10页
人工智能(artificial intelligence,AI)算法已经成为应对新型电力系统不确定性和复杂性的重要手段,其利用历史或仿真数据拟合特征与问题间的关联关系,避免了对复杂物理机理的建模分析,从而可以降低问题维度并提高计算效率。然而,AI的黑... 人工智能(artificial intelligence,AI)算法已经成为应对新型电力系统不确定性和复杂性的重要手段,其利用历史或仿真数据拟合特征与问题间的关联关系,避免了对复杂物理机理的建模分析,从而可以降低问题维度并提高计算效率。然而,AI的黑箱运行模式亦存在安全风险,攻击者可通过恶意手段影响算法模型的训练过程,在模型中植入后门,从而控制算法的输出结果,最终影响电力系统相关业务。该文分析了对电力系统AI植入后门的可行性,设计了一种针对电力系统基于数据投毒的后门攻击方法,根据系统节点入侵难度构造后门触发器致使AI对特定场景样本产生错误判别;为防御此类攻击,在模型层面和样本层面设计了后门攻击的检测方案。最后在AI驱动的暂态稳定评估案例中测试了所提攻击与检测效果。 展开更多
关键词 人工智能 深度学习 数据投毒 后门攻击
在线阅读 下载PDF
基于模型水印的联邦学习后门攻击防御方法 被引量:3
8
作者 郭晶晶 刘玖樽 +5 位作者 马勇 刘志全 熊宇鹏 苗可 李佳星 马建峰 《计算机学报》 EI CAS CSCD 北大核心 2024年第3期662-676,共15页
联邦学习作为一种隐私保护的分布式机器学习方法,容易遭受参与方的投毒攻击,其中后门投毒攻击的高隐蔽性使得对其进行防御的难度更大.现有的多数针对后门投毒攻击的防御方案对服务器或者恶意参与方数量有着严格约束(服务器需拥有干净的... 联邦学习作为一种隐私保护的分布式机器学习方法,容易遭受参与方的投毒攻击,其中后门投毒攻击的高隐蔽性使得对其进行防御的难度更大.现有的多数针对后门投毒攻击的防御方案对服务器或者恶意参与方数量有着严格约束(服务器需拥有干净的根数据集,恶意参与方比例小于50%,投毒攻击不能在学习初期发起等).在约束条件无法满足时,这些方案的效果往往会大打折扣.针对这一问题,本文提出了一种基于模型水印的联邦学习后门攻击防御方法.在该方法中,服务器预先在初始全局模型中嵌入水印,在后续学习过程中,通过验证该水印是否在参与方生成的本地模型中被破坏来实现恶意参与方的检测.在模型聚合阶段,恶意参与方的本地模型将被丢弃,从而提高全局模型的鲁棒性.为了验证该方案的有效性,本文进行了一系列的仿真实验.实验结果表明该方案可以在恶意参与方比例不受限制、参与方数据分布不受限制、参与方发动攻击时间不受限制的联邦学习场景中有效检测恶意参与方发起的后门投毒攻击.同时,该方案的恶意参与方检测效率相比于现有的投毒攻击防御方法提高了45%以上. 展开更多
关键词 联邦学习 投毒攻击 后门攻击 异常检测 模型水印
在线阅读 下载PDF
基于奇异值分解的隐式后门攻击方法
9
作者 吴尚锡 尹雨阳 +3 位作者 宋思清 陈观浩 桑基韬 于剑 《软件学报》 EI CSCD 北大核心 2024年第5期2400-2413,共14页
深度神经网络训练时可能会受到精心设计的后门攻击的影响.后门攻击是一种通过在训练集中注入带有后门标志的数据,从而实现在测试时控制模型输出的攻击方法.被进攻的模型在干净的测试集上表现正常,但在识别到后门标志后,就会被误判为目... 深度神经网络训练时可能会受到精心设计的后门攻击的影响.后门攻击是一种通过在训练集中注入带有后门标志的数据,从而实现在测试时控制模型输出的攻击方法.被进攻的模型在干净的测试集上表现正常,但在识别到后门标志后,就会被误判为目标进攻类.当下的后门攻击方式在视觉上的隐蔽性并不够强,并且在进攻成功率上还有提升空间.为了解决这些局限性,提出基于奇异值分解的后门攻击方法.所提方法有两种实现形式:第1种方式是将图片的部分奇异值直接置零,得到的图片有一定的压缩效果,这可以作为有效的后门触发标志物.第2种是把进攻目标类的奇异向量信息注入到图片的左右奇异向量中,也能实现有效的后门进攻.两种处理得到的后门的图片,从视觉上来看和原图基本保持一致.实验表明,所提方法证明奇异值分解可以有效地利用在后门攻击算法中,并且能在多个数据集上以非常高的成功率进攻神经网络. 展开更多
关键词 后门攻击 奇异值分解 进攻成功率 隐蔽性
在线阅读 下载PDF
自编码器端到端通信系统后门攻击方法
10
作者 甘润 魏祥麟 +3 位作者 王超 王斌 王敏 范建华 《计算机科学》 CSCD 北大核心 2024年第7期413-421,共9页
自编码器端到端通信系统无需显式地设计通信协议,比传统模块式通信系统复杂性更低,且灵活性和鲁棒性更高。然而,自编码器模型的弱可解释性也给端到端通信系统带来了新的安全隐患。实验表明,在信道未知且解码器单独训练的场景下,通过在... 自编码器端到端通信系统无需显式地设计通信协议,比传统模块式通信系统复杂性更低,且灵活性和鲁棒性更高。然而,自编码器模型的弱可解释性也给端到端通信系统带来了新的安全隐患。实验表明,在信道未知且解码器单独训练的场景下,通过在信道层添加精心设计的触发器就可以让原本表现良好的解码器产生误判,并且不影响解码器处理不含触发器样本时的性能,从而实现针对通信系统的后门攻击。文中设计了一种触发器生成模型,并提出了将触发器生成模型与自编码器模型进行联合训练的后门攻击方法,实现动态的触发器的自动生成,在增加攻击隐蔽性的同时提升了攻击成功率。为了验证所提方法的有效性,分别实现了4种不同的自编码器模型,考察了不同信噪比、不同投毒率、不同触发器尺寸以及不同触发信号比场景下的后门攻击效果。实验结果表明,在6dB信噪比下,针对4种不同的自编码器模型,所提方法的攻击成功率与干净样本识别率均超过92%。 展开更多
关键词 深度学习 后门攻击 端到端通信 触发器 自编码器
在线阅读 下载PDF
从频域角度防御隐形后门攻击
11
作者 马俊智 丁建军 +2 位作者 苏通 朱勇杰 孙超 《计算机与数字工程》 2024年第12期3722-3727,3794,共7页
使用第三方模型进行图像识别时,存在受到隐形后门攻击的威胁,而目前的防御研究集中于像素域与训练阶段。针对这种情况,提出基于高斯滤波的后门防御方法。该方法从频域角度切入并在预处理阶段进行防御,首先通过对隐形后门攻击进行频域特... 使用第三方模型进行图像识别时,存在受到隐形后门攻击的威胁,而目前的防御研究集中于像素域与训练阶段。针对这种情况,提出基于高斯滤波的后门防御方法。该方法从频域角度切入并在预处理阶段进行防御,首先通过对隐形后门攻击进行频域特性研究,分析出触发器位于图像高频信息区域,然后对于不同种类的攻击,在模型预测阶段引入高斯滤波器进行防御实验。实验结果表明,该方法将隐形后门攻击的攻击成功率降低至10%以内。 展开更多
关键词 后门防御 隐形后门攻击 频域 图像识别
在线阅读 下载PDF
基于联邦学习的后门攻击与防御算法综述
12
作者 刘嘉浪 郭延明 +4 位作者 老明瑞 于天元 武与伦 冯云浩 吴嘉壮 《计算机研究与发展》 EI CSCD 北大核心 2024年第10期2607-2626,共20页
联邦学习旨在解决数据隐私和数据安全问题,大量客户端在本地进行分布式训练后,中央服务器再聚合各本地客户端提供的模型参数更新,但中央服务器无法看到这些参数的具体更新过程,这种特性会带来严重的安全问题,即恶意参与者可以在本地模... 联邦学习旨在解决数据隐私和数据安全问题,大量客户端在本地进行分布式训练后,中央服务器再聚合各本地客户端提供的模型参数更新,但中央服务器无法看到这些参数的具体更新过程,这种特性会带来严重的安全问题,即恶意参与者可以在本地模型中训练中毒模型并上传参数,再在全局模型中引入后门功能.关注于联邦学习特有场景下的安全性和鲁棒性研究,即后门攻击与防御,总结了联邦学习下产生后门攻击的场景,并归纳了联邦学习下后门攻击和防御的最新方法,对各种攻击和防御方法的性能进行了比较和分析,揭示了其优势和局限.最后,指出了联邦学习下后门攻击和防御的各种潜在方向和新的挑战. 展开更多
关键词 联邦学习 后门攻击 后门防御 数据隐私 数据安全
在线阅读 下载PDF
面向联邦学习的后门攻击与防御综述
13
作者 陈学斌 屈昌盛 《计算机应用》 CSCD 北大核心 2024年第11期3459-3469,共11页
联邦学习(FL)作为一种分布式的机器学习方法,允许不同参与方利用各自的本地数据集合作训练一个机器模型,因此能够解决数据孤岛与用户隐私保护问题。但是,FL本身的分布式特性使它更容易受到后门攻击,这为它的实际应用带来了更大的挑战。... 联邦学习(FL)作为一种分布式的机器学习方法,允许不同参与方利用各自的本地数据集合作训练一个机器模型,因此能够解决数据孤岛与用户隐私保护问题。但是,FL本身的分布式特性使它更容易受到后门攻击,这为它的实际应用带来了更大的挑战。因此,深入了解FL环境下的后门攻击与防御方法对该领域的发展至关重要。首先,介绍了FL的定义、流程和分类以及后门攻击的定义;其次,从FL环境下的后门攻击和后门防御方案这两个方面进行了详细介绍与分析,并对后门攻击和后门防御方法进行对比;最后,对FL环境下的后门攻击与防御方法的发展进行了展望。 展开更多
关键词 联邦学习 后门攻击 后门防御 隐私保护 机器学习
在线阅读 下载PDF
结合扩散模型图像编辑的图文检索后门攻击
14
作者 杨舜 陆恒杨 《计算机科学与探索》 CSCD 北大核心 2024年第4期1068-1082,共15页
深度神经网络在模型训练阶段易受到后门攻击,在训练图文检索模型时,如有攻击者恶意地将带有后门触发器的图文对注入训练数据集,训练后的模型将被嵌入后门。在模型推断阶段,输入良性样本将得到较为准确的检索结果,而输入带触发器的恶意... 深度神经网络在模型训练阶段易受到后门攻击,在训练图文检索模型时,如有攻击者恶意地将带有后门触发器的图文对注入训练数据集,训练后的模型将被嵌入后门。在模型推断阶段,输入良性样本将得到较为准确的检索结果,而输入带触发器的恶意样本会激活模型隐藏后门,将模型推断结果恶意更改为攻击者设定的结果。现有图文检索后门攻击研究都是基于在图像上直接叠加触发器的方法,存在攻击成功率不高和带毒样本图片带有明显的异常特征、视觉隐匿性低的缺点。提出了结合扩散模型的图文检索模型后门攻击方法(Diffusion-MUBA),根据样本图文对中文本关键词与感兴趣区域(ROI)的对应关系,设计触发器文本提示扩散模型,编辑样本图片中的ROI区域,生成视觉隐匿性高且图片平滑自然的带毒训练样本,并通过训练模型微调,在图文检索模型中建立错误的细粒度单词到区域对齐,把隐藏后门嵌入到检索模型中。设计了扩散模型图像编辑的攻击策略,建立了双向图文检索后门攻击模型,在图-文检索和文-图检索的后门攻击实验中均取得很好的效果,相比其他后门攻击方法提高了攻击成功率,而且避免了在带毒样本中引入特定特征的触发器图案、水印、扰动、局部扭曲形变等。在此基础上,提出了一种基于目标检测和文本匹配的后门攻击防御方法,希望对图文检索后门攻击的可行性、隐蔽性和实现的研究能够抛砖引玉,推动多模态后门攻防领域的发展。 展开更多
关键词 后门攻击 图文检索 扩散模型 感兴趣区域
在线阅读 下载PDF
基于特征空间相似的隐形后门攻击
15
作者 夏辉 钱祥运 《信息网络安全》 CSCD 北大核心 2024年第8期1163-1172,共10页
后门攻击指通过在深度神经网络模型训练过程中对原模型植入特定的触发器,导致模型误判的攻击。目前后门攻击方案普遍面临触发器隐蔽性差、攻击成功率低、投毒效率低与中毒模型易被检测的问题。为解决上述问题,文章在监督学习模式下,提... 后门攻击指通过在深度神经网络模型训练过程中对原模型植入特定的触发器,导致模型误判的攻击。目前后门攻击方案普遍面临触发器隐蔽性差、攻击成功率低、投毒效率低与中毒模型易被检测的问题。为解决上述问题,文章在监督学习模式下,提出一种基于特征空间相似理论的模型反演隐形后门攻击方案。该方案首先通过基于训练的模型反演方法和一组随机的目标标签类别样本获得原始触发器。然后,通过Attention U-Net网络对良性样本进行特征区域分割,在重点区域添加原始触发器,并对生成的中毒样本进行优化,提高了触发器的隐蔽性和投毒效率。通过图像增强算法扩充中毒数据集后,对原始模型再训练,生成中毒模型。实验结果表明,该方案在保证触发器隐蔽性的前提下,在GTSRB和CelebA数据集中以1%的投毒比例达到97%的攻击成功率。同时,该方案保证了目标样本与中毒样本在特征空间内相似性,生成的中毒模型能够成功逃脱防御算法检测,提高了中毒模型的不可分辨性。通过对该方案进行深入分析,也可为防御此类后门攻击提供思路。 展开更多
关键词 数据投毒 后门攻击 特征空间相似 监督学习
在线阅读 下载PDF
基于后门攻击的联邦学习恶意软件检测系统脆弱性分析
16
作者 芦星宇 曹阳 《南通大学学报(自然科学版)》 CAS 2024年第3期34-46,共13页
深度学习技术已成为恶意软件检测的核心技术之一,然而其依赖于集中式训练,需要定期更新数据库并进行重训练以应对恶意软件的不断演进。联邦学习作为一种新兴的分布式学习技术,通过在多个客户端本地训练分类模型并共享学习成果以构建全... 深度学习技术已成为恶意软件检测的核心技术之一,然而其依赖于集中式训练,需要定期更新数据库并进行重训练以应对恶意软件的不断演进。联邦学习作为一种新兴的分布式学习技术,通过在多个客户端本地训练分类模型并共享学习成果以构建全局模型,能有效保护数据隐私并适应恶意软件的多样化;但联邦学习由于其分布式的特性,易受到恶意客户端后门攻击的影响。针对上述问题,探讨了联邦学习在恶意软件检测中的脆弱性,分析了潜在的恶意攻击如标签反转攻击和模型投毒攻击,并在此基础上提出一种新型隐蔽的联邦自适应后门攻击(federated adaptive backdoor attack,FABA)策略。该攻击策略充分利用联邦学习的特性,通过在客户端与中心服务器的交互过程中不断调整触发器,确保攻击效益最大化与隐蔽性。在Virus-MNIST和Malimg数据集上的测试结果显示,所提出的方法在保持隐蔽性的同时实现了100%的攻击成功率,对干净样本的预测精度几乎无影响。此外,即使面对最新的防御机制,所提出的策略依然能保持高攻击成功率和隐蔽性。所使用的微小触发器(仅9个像素)和极低比例(3%)的恶意客户端展示了联邦学习在安全性方面的潜在风险,为未来的防御策略提供了重要参考。 展开更多
关键词 联邦学习 后门攻击 恶意软件检测
在线阅读 下载PDF
一种后量子密码密钥失配后门攻击:以Kyber为例
17
作者 邵岩 刘月君 周永彬 《信息安全与通信保密》 2024年第10期66-79,共14页
美国NIST已发布第一批后量子密码算法标准规范(FIPS 203/204/205),同时后量子密码技术迁移应用的演示验证工作亦在开展中。近年来,密钥失配攻击受到关注,由于密钥失配攻击本质上属于选择密文攻击,故理论上难以攻破CCA安全的后量子密钥... 美国NIST已发布第一批后量子密码算法标准规范(FIPS 203/204/205),同时后量子密码技术迁移应用的演示验证工作亦在开展中。近年来,密钥失配攻击受到关注,由于密钥失配攻击本质上属于选择密文攻击,故理论上难以攻破CCA安全的后量子密钥封装方案。基于此,提出了一种针对典型应用场景的后量子密码密钥失配后门攻击方案,并以使用CRYSTALS-KYBER的TLS安全协议的应用为示例开展概念验证实验。本方案的本质在于内嵌提供密钥失配存在性判定信息的解封装实现方法,粗心使用这类解封装方案的用户将成为受害者。模拟实验结果表明,使用该攻击方案能够快速恢复出受害者的长期私钥。 展开更多
关键词 密钥失配攻击 后门攻击 后量子密钥封装方案 Kyber
在线阅读 下载PDF
PoisonEEG: 基于频率变换的EEG后门攻击新方法
18
作者 宋鑫浩 何德轩 +1 位作者 刘轩豪 郑伟龙 《智能安全》 2024年第4期29-38,共10页
由于深度学习模型的巨大成功,基于脑电的脑机接口取得了广泛的应用。然而,深度学习模型容易受到后门攻击,特别是在图像和自然语言领域,后门攻击已取得显著成果。然而,由于脑电数据的复杂性、不稳定性以及数据分布的不均衡性,针对脑电数... 由于深度学习模型的巨大成功,基于脑电的脑机接口取得了广泛的应用。然而,深度学习模型容易受到后门攻击,特别是在图像和自然语言领域,后门攻击已取得显著成果。然而,由于脑电数据的复杂性、不稳定性以及数据分布的不均衡性,针对脑电数据设计隐秘而复杂的攻击仍然具有挑战性。现有的后门攻击方法存在一定限制,即需要参与模型的训练阶段才能保持高隐蔽性。为了解决这些限制,本文提出了一种名为PoisonEEG的后门攻击方法,旨在无需参与模型训练阶段即可操纵脑机接口将脑电数据错误分类到目标类别。具体而言,PoisonEEG后门攻击包括3个阶段:首先,为目标类别选择一个样本作为触发器;其次,通过强化学习为触发器学习最优的注入电极和频段的掩码;最后,基于学习到的掩码对投毒集数据和触发器的频谱进行线性插值。本文在情绪识别和运动想象两个脑电任务上进行了实验,结果表明:PoisonEEG攻击方法不仅有效,而且具有较高的隐蔽性和鲁棒性,能够在复杂的脑电数据环境中实现对模型的操控。 展开更多
关键词 脑机接口 脑电 后门攻击 强化学习 频率变换
在线阅读 下载PDF
深度学习中的后门攻击综述 被引量:10
19
作者 杜巍 刘功申 《信息安全学报》 CSCD 2022年第3期1-16,共16页
随着深度学习研究与应用的迅速发展,人工智能安全问题日益突出。近年来,深度学习模型的脆弱性和不鲁棒性被不断的揭示,针对深度学习模型的攻击方法层出不穷,而后门攻击就是其中一类新的攻击范式。与对抗样本和数据投毒不同,后门攻击者... 随着深度学习研究与应用的迅速发展,人工智能安全问题日益突出。近年来,深度学习模型的脆弱性和不鲁棒性被不断的揭示,针对深度学习模型的攻击方法层出不穷,而后门攻击就是其中一类新的攻击范式。与对抗样本和数据投毒不同,后门攻击者在模型的训练数据中添加触发器并改变对应的标签为目标类别。深度学习模型在中毒数据集上训练后就被植入了可由触发器激活的后门,使得模型对于正常输入仍可保持高精度的工作,而当输入具有触发器时,模型将按照攻击者所指定的目标类别输出。在这种新的攻击场景和设置下,深度学习模型表现出了极大的脆弱性,这对人工智能领域产生了极大的安全威胁,后门攻击也成为了一个热门研究方向。因此,为了更好的提高深度学习模型对于后门攻击的安全性,本文针对深度学习中的后门攻击方法进行了全面的分析。首先分析了后门攻击和其他攻击范式的区别,定义了基本的攻击方法和流程,然后对后门攻击的敌手模型、评估指标、攻击设置等方面进行了总结。接着,将现有的攻击方法从可见性、触发器类型、标签类型以及攻击场景等多个维度进行分类,包含了计算机视觉和自然语言处理在内的多个领域。此外,还总结了后门攻击研究中常用的任务、数据集与深度学习模型,并介绍了后门攻击在数据隐私、模型保护以及模型水印等方面的有益应用,最后对未来的关键研究方向进行了展望。 展开更多
关键词 后门攻击 人工智能安全 深度学习
在线阅读 下载PDF
基于对比学习的图神经网络后门攻击防御方法 被引量:2
20
作者 陈晋音 熊海洋 +1 位作者 马浩男 郑雅羽 《通信学报》 EI CSCD 北大核心 2023年第4期154-166,共13页
针对现有的后门攻击防御方法难以处理非规则的非结构化的离散的图数据的问题,为了缓解图神经网络后门攻击的威胁,提出了一种基于对比学习的图神经网络后门攻击防御方法(CLB-Defense)。具体来说,基于对比学习无监督训练的对比模型查找可... 针对现有的后门攻击防御方法难以处理非规则的非结构化的离散的图数据的问题,为了缓解图神经网络后门攻击的威胁,提出了一种基于对比学习的图神经网络后门攻击防御方法(CLB-Defense)。具体来说,基于对比学习无监督训练的对比模型查找可疑后门样本,采取图重要性指标以及标签平滑策略去除训练数据集中的扰动,实现对图后门攻击的防御。最终,在4个真实数据集和5主流后门攻击方法上展开防御验证,结果显示CLB-Defense能够平均降低75.66%的攻击成功率(与对比算法相比,改善了54.01%)。 展开更多
关键词 图神经网络 后门攻击 鲁棒性 防御 对比学习
在线阅读 下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部