人工智能和机器学习面临数据中毒的解决措施

来源: 网络 日期:2022-03-17

阻止勒索软件已成为许多组织的优先事项。因此,他们正在转向人工智能(AI)和机器学习(ML)作为他们的防御选择。然而,威胁者也正在转向人工智能和ML来发动他们的攻击。一种特定类型的攻击,即数据中毒,就利用了这一点。

人工智能和机器学习面临数据中毒的解决措施

为什么AI和ML有风险

像任何其他技术一样,人工智能是一个双刃剑。YouAttest的首席执行官Garret Grajek在一次电子邮件采访中说,人工智能模型擅长处理大量数据并得出 “最佳猜测”。

他说:“黑客已经使用AI来攻击身份验证和身份验证,包括语音和可视化黑客攻击。” ““武器化的AI”致力于获取访问密钥。”

康奈尔大学的研究人员解释说:“专业数据中毒是对机器学习的有效攻击,并且通过将中毒数据引入训练数据集来威胁模型完整性。”

是什么使通过AI和ML进行的攻击不同于典型的“系统中的错误”攻击?Marcus Comiter在哈佛大学Belfer科学与国际事务中心的论文中说,这些算法存在固有的局限性和弱点,无法解决。

“ AI攻击从根本上扩展了可用于执行网络攻击的实体的集合,” Comiter补充说。“有史以来第一次,物理对象现在可以用于网络攻击。还可以使用这些攻击以新的方式将数据武器化,要求改变数据的收集,存储和使用方式。”

人为错误

为了更好地了解威胁者如何利用AI和ML作为数据中毒和其他攻击的攻击载体,我们需要更清楚地了解他们在保护数据和网络方面的作用。

问问首席信息安全官,对一个组织的数据最大的威胁是什么,他们往往会告诉你是人性。

员工并不打算成为网络风险,但他们是人。人是可以分心的。他们今天错过了一个昨天就能轻易避免的威胁。一个急于赶截稿并期待得到一份重要文件的员工可能最终点击了一个受感染的附件,误以为那是他们需要的文件。或者,员工可能根本没有意识到,因为他们的安全意识培训太不连贯,没有留下印象。威胁者知道这一点,并且像任何好的罪犯一样,他们正在寻找进入网络和获取数据的最简单方法。网络钓鱼攻击之所以如此普遍,是因为它们非常好用。

使用异常行为作为风险因素

这就是AI和ML恶意软件检测发挥作用的地方。这些技术找到模式并分析用户行为,在其变成问题之前嗅出奇怪的行为。通过应用生成的算法,ML识别出人类不可能做到的异常行为。例如,它可以检测到一个员工的正常工作日或他们的击键节奏,并为不正常的事情设置警报。

当然,这并不完美。有人可能在正常工作时间之外工作,或者有影响他们打字方式的伤病。但这些工具的设计是为了捕捉一些不寻常的东西,例如威胁者使用被盗的证书。

充其量,我们可以使用AI通过告诉无监督计算机和网络上真实文件与恶意文件之间的区别,阻止对不良文件的访问来更好地保护网络免受勒索软件攻击。AI可以嗅探影子IT,告诉威胁的授权连接,并深入了解员工使用的端点数量。

为了使AI和ML成功应对网络威胁,他们依赖于在指定时间段内创建的数据和算法。这样一来,他们就可以有效地发现问题(并使安全团队腾出时间来执行其他任务)。这也是威胁。AI和ML的上升直接导致了数据中毒的潜在威胁。

了解数据中毒

有两种毒害数据的方法。一种是将信息注入系统,以便它返回错误的分类。从表面上看,对算法进行毒化看起来并不那么困难。毕竟,AI和ML只知道人们教给他们什么。想象一下,您正在训练一种算法来识别马匹。您可能会显示数百张棕色马的图片。同时,您教它通过看数百张黑白母牛的图片来识别母牛。但是,当一头棕色的母牛滑入数据集中时,机器会将其标记为一匹马。对于该算法,棕色动物就是一匹马。人类将能够识别出差异,但是除非算法指定母牛也可以是棕色,否则机器将无法识别。

如果威胁行动者访问了训练数据,则他们可以操纵该信息以向AI和ML讲授他们想要的任何东西。他们可以使他们将良好的软件代码视为恶意代码,反之亦然。攻击者可以重建人类行为数据,以发起社会工程学攻击或确定使用勒索软件攻击的目标。

威胁参与者的第二种方式可以利用训练数据来生成后门。

黑客可能会使用AI来帮助选择最值得利用的漏洞。因此,可以将恶意软件放置在企业中,在这些企业中,恶意软件本身可以决定攻击的时间以及最佳的攻击媒介。这些攻击(根据设计,是可变的),使得检测起来更加困难和时间更长。” Grajek说。

    A+
声明:本文转载自其它媒体,转载目的在于传递更多信息,并不代表赞同其观点和对其真实性负责。