如何保护AI系统免受对抗性机器学习《56之窗网》
标王 热搜: 贷款  深圳    医院  用户体验  网站建设  机器人  贵金属  桂林市  五角大楼 
 
 
当前位置: 首页 » 资讯 » 行业资讯 » 热点新闻 » 正文

如何保护AI系统免受对抗性机器学习

放大字体  缩小字体 发布日期:2020-11-07 13:43:56  来源:互联网  作者:56之窗网  浏览次数:118

随着机器学习的日益普及,使专家担心的一件事是该技术将带来的安全威胁。我们仍在探索各种可能性:自动驾驶系统的故障?来自深度神经网络的敏感数据的不明显的窃取?基于深度学习的生物特征认证失败?内容审核算法的微妙绕过?

同时,机器学习算法已经进入金融,医疗保健和运输等关键领域,在这些领域中,安全失败可能会造成严重影响。

在不同领域中越来越多地采用机器学习算法的同时,人们对对抗性机器学习的兴趣也日益增长,这是研究如何损害学习算法的研究领域。

现在,我们终于有了一个框架来检测和响应针对机器学习系统的对抗攻击。该框架称为Adversarial ML威胁矩阵,是Microsoft,IBM,Nvidia和MITRE等13个组织的AI研究人员共同努力的结果。

虽然ML Threat Matrix仍处于早期阶段,但它提供了一个综合视图,可了解恶意行为者如何利用机器学习算法的弱点来针对使用它们的组织。它的关键信息是对抗性机器学习的威胁是真实存在的,组织应立即采取行动以保护其AI系统。

将ATT&CK应用于机器学习

对抗性ML威胁矩阵以ATT&CK的样式呈现,ATT&CK是由MITER开发的经过测试的框架,用于处理企业网络中的网络威胁。ATT&CK提供了一个表格,总结了不同的对抗策略以及威胁行为者在每个区域执行的技术类型。

自成立以来,ATT&CK已成为网络安全专家和威胁分析人员发现弱点并推测可能的攻击的流行指南。对抗性ML威胁矩阵的ATT&CK格式使安全分析人员更容易理解机器学习系统的威胁。对于不熟悉网络安全操作的机器学习工程师,它也是一个可访问的文档。

 
关键词: AI系统

  以上就是【如何保护AI系统免受对抗性机器学习】全部内容,更多资讯请关注56之窗网。
 

本文地址:http://hot.ffsy56.com/newsdetail508551.html


版权与免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。56之窗网对此不承担任何直接责任及连带责任,56之窗网仅提供信息存储空间服务。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。
 
推荐图文
最新新闻
点击排行

新闻投稿、广告联系客服QQ: