科技工作者之家
科技工作者之家APP是专注科技人才,知识分享与人才交流的服务平台。
科技工作者之家 2019-07-02
机器学习模型受到攻击将产生严重的后果,但如果对这一情形提前预防呢?就像人类针对即将到来的病毒去接种疫苗一样。据澳大利亚联邦科学与工业研究组织(CSIRO)官方网站消息,该机构的一个研究团队,日前开发了一套人工智能(AI)最新算法,可帮助机器学习抵御可能遇到的干扰。
机器学习是人工智能的核心,也是使计算机具有智能的根本途径。机器学习主旨是让计算机去模拟或实现人类的学习行为,以获取新的知识或技能,并重新组织已有的知识结构,使之不断改善自身的性能。
机器学习虽然可以在大数据训练中学到正确的工作方法,但它也很容易受到恶意干扰。通常攻击者是通过输入恶意数据来“欺骗”机器学习模型,导致其出现严重故障。
此次,开发出新算法的研究团队——“Data61”机器学习小组领导者理查德·诺克表示,攻击者会在进行图像识别时,在图像上添加一层干扰波,达到“欺骗”的目的,从而让机器学习模型产生错误的图像分类。
诺克及其团队成员研发的新算法,通过一种类似疫苗接种的思路,可以帮助机器学习“修炼”出抗干扰能力。这是针对机器学习模型打造的防干扰训练,譬如,在图片识别领域,该算法能够对图片集合进行微小的修改或使其失真,激发出机器学习模型“领会”到越来越强的抗干扰能力,并形成相关的自我抗干扰训练模型。
经过此类小规模的失真训练后,最终的抗干扰训练模型将更加强大,当真正的攻击到来之时,机器学习模型将具备“免疫”功能。
总编辑圈点
用小伎俩干扰机器对图像的识别,这种手段已经应用在网络黑产中。人眼看起来并无明显区别的图片,覆上一层专门针对机器的干扰波,就能让机器的判断大失水准。所谓接种疫苗,其实也就是“以毒攻毒”,让机器先见识已经被微小修改的图片,并在训练中自我学习,从而最终能识破这层恶意干扰,揭开图片的庐山真面目。机器的学习功能是强大的,教会它应对方法,它便能自我完善。但攻击与防御总是相伴相生,这是一场没有尽头的技术博弈。
内容来源:科技日报来源:科技日报
原文链接:http://digitalpaper.stdaily.com/http_www.kjrb.com/kjrb/html/2019-07/02/content_424724.htm?div=-1
版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。
电话:(010)86409582
邮箱:kejie@scimall.org.cn
算法战,美国加强人工智能军事应用
机器学习:人工智能的三种设计模式
美国最新《人工智能/机器学习战略计划》
机器学习:人工智能的三种设计模式
【WRC • 资讯】人工智能和机器学习技术推动企业发展
兰德公司:中美人工智能战略比较——保持人工智能和机器学习的竞争优势
西南大学发布人工智能领域新算法
经典算法论坛——安全可靠人工智能算法 | YEF 专题论坛
为什么说机器学习不是人工智能?
兰德人工智能/机器学习桌面战术兵棋规则(一)