对手可能正在破坏你的机器学习引擎。以下是如何修复损害的方法

机学习在网络安全中的应用及其风险

关键要点

  • 机器学习在网络安全中有许多有效的应用,但需要防止恶意行为者对其数据完整性的破坏。
  • 恶意行为者能够渗透机器学习系统,导致系统”学习”错误信息。
  • 保护机器学习模型免受攻击的关键是数据的正确清洗和版本控制。

机器学习在网络安全领域有许多有用的应用,前提是其背后的技术没有受到恶意行为者的不当影响,以至于数据完整性遭到破坏。Mastercard首席安全研究员DonnieWendt称之为“叔叔罗尼效应”:他在一次采访中提到:“当我的儿子还小的时候,每当他要去拜访我的兄弟——他的叔叔罗尼——我都会说,‘请,请,不要从他那里学到任何新东西。’因为我知道他会教我儿子一些坏事。”Wendt是在佛罗里达州奥兰多的网络风险联盟2022年信息安全世界会议上接受SC媒体采访时这样说的。

同样,“敌手也能破坏机器学习系统”,教学其错误的习惯,从而要求操作员在发现入侵的情况下,重新修正。“在网络安全方面,经过适当训练的机器学习系统可以帮助完成诸如恶意软件分类、识别网络钓鱼尝试、入侵检测、行为分析和预测漏洞何时会被利用等任务。但结果可能会受到偏差的影响。”Wendt在本周早些时候的信息安全世界大会上就这一主题进行了演讲。

“我们的对手通常会尝试通过注入对抗样本来绕过机器学习分类,从而毒害训练。”Wendt解释道。除此之外,恶意行为者还可能发起推断攻击,以便未经授权地访问用于训练机器学习系统的数据。

为了保护机器学习模型不受攻击,Wendt建议进行适当的数据清洗,并确保有“适当版本控制的数据访问控制……以便在发生攻击时……您可以返回到先前版本的数据,重新运行模型并查看数据漂移情况。”如果您发现有不当行为发生,至少可以撤消那些“叔叔罗尼”教给您机器学习系统的错误知识。

如需了解更多关于机器学习如何受到恶意影响的深入信息,请观看下面嵌入的视频。

Leave a Reply

Your email address will not be published. Required fields are marked *