AI攻击AI,升级DDoS防御的网络安全战-墨者安全-墨者盾
DDOS防御_CC防护_高防CDN服务器_【墨者安全】—墨者盾墨者盾—你的网站贴身保镖!
QQ:800185041
高防免费接入:400-0797-119

渠道合作:156 2527 6999

主页 > CC防护 > AI攻击AI,升级DDoS防御的网络安全战

AI攻击AI,升级DDoS防御的网络安全战

小墨安全管家 2020-08-11 12:19 CC防护 89 ℃
DDoS防御

为了实现这一目标,行业从业者、学术研究人员和决策者之间的合作至关重要。立法者必须思量到AI的潜在用途,并更新对于“黑客”的定义。研究人员应该防备其研究成果被恶意使用。补丁和漏洞治理程序也应该在企业界得到应有的重视。

科技云报道:AI攻击AI,升级的网络安全战

为了防止黑客想要经过篡改数据集或现实环境来攻击人工智能,研究人员转向对抗性的机器学习研究。在这种事情下,研究人员对数据举行修改,从而欺骗神经网络和人工智能系统,让它们看到不存在的东西,忽略存在的东西,或者使得其对于分类对象的决策彻底错误。

科技云报道:AI攻击AI,升级的网络安全战

最终,用户也应当树立安全意识,防止社会工程攻击,阻挠密码重用,并在可行的事情下提倡双因素身份验证。

针对AI攻击的谨防措施

AI型网络攻击会带来哪些威胁?

虽接着果与阻碍这样重要,但大多数企业在遭遇第一次AI攻击时,并不大概注意到此类重大变化。但随着我们不断利用AI系统改进自身家庭环境、工厂、办公室乃至交通运输系统,AI引发的潜在威胁必将不断提升。

另外,工作量的落低将使得网络犯罪分子可以发动大量的小规模攻击。由于单次攻击的阻碍较为有限,所以这类活动即使被检测到也往往会受到忽视。

除了AI带来的自动化攻击,黑客使用AI对AI举行攻击,也成为业界最为关注的潜在威胁。

第三,AI同样大概带来的惊险。AI自主操作大概导致其攻击本不应攻击的对象,甚至大概造成意外损失的系统。

就像谷歌和纽约大学研究人员所做的那么,在一辆校车的照片上,加上一层对人类来讲无形的数据噪声,神经网络就会以为那是一只鸵鸟。

另一方面,推理时刻攻击则是经过一系列算法——比如快速梯度符号法(Fast Gradient Sign Method,FGSM)和当前最优攻击想法(Carlini and Wagner)是两种最流行的算法——向模型显示精心制作的输入,从而迷惑神经网络。

其次,AI可以关心提升适应能力。AI支持型攻击者在遇到阻力,或者网络安全专家修复了原有漏洞时,可以快速作出反应。在这种事情下,AI大概会在无需人为指示的前提下转而利用另一项漏洞,或者对系统举行扫描以找到新的可行入侵方式。

首先,显而易见的,增加网络谨防中AI的使用,并非坏的挑选。网络谨防基本采纳了一种监管和非监管相结合的学习想法,基于现有的模式预测新的威胁和恶意软件。

行为分析是另一种探究途径。机器学习技术可用于监控系统和人类活动,以检测潜在的恶意偏离。

使用AI对AI举行攻击

不仅仅是图像能够如此,躲藏的语音指令嵌入到广播中,从而操纵智能手机,并且不大概让人们察觉。

首先,AI可以关心黑客定制攻击手段。举例来讲,鱼叉式钓鱼攻击要求攻击者猎取潜在目标的个人信息以及其它详细资料,具体包括银行帐户或者其挑选的医疗保险公司。

AI系统可以关心攻击者快速收集、组织并处理大型数据库,从而对信息举行关联与识别,最后来简化攻击实施门槛并加快攻击执行速度。

2014年,谷歌研究人员在一篇对于“神经网络的有味特性”的论文中首次描述了这一方法,该论文描述了怎么在图像中添加“扰动”元素会导致神经网络浮上错误——他们称之为“对抗性示例”。

他们发觉,弱小的扭曲就大概会骗过神经网络,使其误读一具数字或误将校车当成别的啥东西。这项研究对神经网络“固有盲点”以及它们在学习过程中的“非直觉特征”提出了质疑。换句话讲,我们并不真正了解神经网络是怎么运作的。

这么,关于潜在的AI攻击风险,人们能够做到哪些潜在的谨防措施呢?

这意味着谨防者将无法跟上AI方案的进攻速度。这极有大概引发新一轮编程与技术性军备比赛,其中谨防者开辟出AI助手以发觉并抵御攻击活动,甚至打造出拥有报复性攻击能力的AI方案。

对抗性的机器学习研究表明,AI大概会被黑客攻击,从而做出彻底错误的决策。随着人工智能渗透到我们日子的方方面面——驾驶汽车、分析视频监控系统、经过面部识别某人身份——对这些系统的攻击变得更加大概,也更加惊险。

但重要的是,在使用AI举行谨防时,我们应该假设攻击者基本对此有所预料。我们还必须掌控AI的进展及其在网络中的应用,以便可以可靠地预测恶意应用程序。

AI系统甚至可被用于从多个来源处并且提取信息,从而发觉那些易受攻击活动阻碍的目标。

例如:黑客修改路边交通标志,大概会导致车祸和人员损害,对数据机器学习系统的细微改变,也会导致人工智能系统做出的决策浮上偏差。

华盛顿大学计算机安全研究员Earlence Fernandes也从事停车标志研究,他表示:“攻击的范围特别广,取决于攻击者处在机器学习模型生成过程的哪个时期。” 例如:在人脸检测算法中,攻击者大概会用恶意数据对模型施以毒害,从而使检测算法将攻击者的脸识别为授权人。”

在近期召开的在一次网络安全会议上,100位受访行业专家中的62位以为,首轮AI强化型网络攻击特别大概在接下来12个月内浮上。

正是基于神经网络的不可理解性,人们也就临时不用太担心AI攻击事件发生。麻省理工学院的研究员Anish Athalye指出,“据我们所知,这种类型的攻击,目前还没有在被现实世界中的恶意组织所采用过。”

举例来讲,原本只计划窃取资金的攻击者,在运行AI软件后,可能会决定将目标指向医院计算机,这极易导致人身损害甚至是死亡等严峻后果。

这种担忧并不是空穴来风。网络安全是一具人力受限的市场,而计算机除了不需要进食与歇息之外,还可以以AI自动化的方式,提升复杂攻击的速度与执行效率,这特别容易诱使黑客使用AI举行攻击。

尽管目前公共领域的研究,仅限于白帽黑客使用计算机识别漏洞并提出修复建议。可是,以AI的进展速度,攻击者对其大规模应用也是指日可待的事。


DDoS防御

当前位置:主页 > CC防护 > AI攻击AI,升级DDoS防御的网络安全战

标签列表
DDoS防御
网站分类
X
 

QQ客服

400-0797-119