• 科技工作者之家
  • 科技资讯
  • 【院士之家】中国科学院院士、清华大学人工智能研究院院长张钹:从技术层面解决人工智能安全问题

【院士之家】中国科学院院士、清华大学人工智能研究院院长张钹:从技术层面解决人工智能安全问题

科技工作者之家 2021-02-08

来源:江苏省科协

当前,由人工智能引领的新一轮科技革命和产业变革方兴未艾。在移动互联网、大数据、超级计算、传感网、脑科学等新理论新技术驱动下,人工智能呈现深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,正在对经济发展、社会进步、全球治理等方面产生重大而深远的影响。当前,我国人工智能产业发展处于什么阶段?如何看待当前的发展态势?未来应如何引导产业安全有序健康发展?围绕这些问题,近日,中国科学院院士、清华大学人工智能研究院院长张钹谈了自己的见解。

近年来,中央在多次重要会议中对人工智能的重要性和发展前景进行阐述。加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手。张钹表示,当前中国在人工智能产业发展方面与国际先进水平的差距并不是很大,但企业质量有待与数量“看齐”,在拓宽应用场景、加强数据安全和算法安全等方面加大功夫。他提出“第三代人工智能”的概念,并表示希望通过政策和法规之外的技术途径解决人工智能的安全问题。


第三代人工智能的重点是什么?张钹表示,必须充分利用知识、数据、算力和算法四要素,让机器深度学习,做到随机应变、举一反三,才能不断推进人工智能向前发展。


目前,政府管理、技术识别以及数据监测中,都大量运用着人工智能技术。人工智能技术一旦被误用和滥用,会产生很严重的后果。为什么是这样呢?张钹列举了三点原因。


第一,所有技术都存在的问题,就是技术的两面性。人工智能也不例外,人工智能既可以用来造福人类,也可以用来伤害人类。举一个简单的例子,语音和图像的合成,利用这两项技术可以合成跟人类一样惟妙惟肖的机器人,让它跟人类进行交互、进行聊天,达到很好的用户体验。但也可以用这两项技术合成虚假的新闻、视频去欺骗公众,误导舆论,造成不良的社会影响。人工智能技术还有另外两点特殊的地方,导致人工智能的治理问题更为严重,也更加重要。


第二,现在的人工智能技术非常脆弱。换句话讲它非常容易被攻击、被欺骗。

第三,数据安全问题。其实人工智能依赖大量的数据,确实数据可以帮我们很大的忙,但数据也存在大量需要解决的问题,比如隐私问题、知识产权问题、偏见问题、污染问题、存在错误等等,这些同样会造成很大的危险。


“举一个非常简单的例子,我们用计算机去识别汽车,汽车后头有商标,正常情况都能识别。但我们只要在商标上加一点点噪声,这个噪声人用肉眼根本看不出来,但是就可以误导计算机‘看不到’(识别不到)汽车,这就是新出现的‘隐身术’,这个非常危险,我们通常用这种计算机视觉识别技术去监测车辆,人家只要在车上搞一点小的噪声图案就可以让计算机看不到它,这就是一个人工智能脆弱性的表现。”张钹表示。


同样的,在视频监控场景里,如果用计算机来监测电网周遭环境的危险情况,只要在这个地方布置一点很简单的噪声干扰,就可以让计算机误认为这个地方有火情,或者真的发生了火情,也可以添加一点小的干扰进去让计算机认为没有火情。人工智能的滥用会对生活造成极大的威胁。


那我们应该怎么来解决人工智能安全性的问题呢?张钹认为必须从两个方面下手,一个就是其他专家发言里谈的比较多的,去治理。“但是我们不能用治理来限制人工智能的发展,唯一的办法还是在于发展;另外一个问题,我们该如何发展它?那就是要发展安全、可靠、可信、可扩展的人工智能技术。”张钹说。


针对第三代人工智能,张钹主要开展了两项工作,一项工作是已经发布的一个计算平台--One‐Flow,现在市面上主流的框架平台,就是TensorFlow和PyTorch,OneFlow的可解释性比别的好,有很多优点,现在已经把应用在交通、医疗、智能制造等很多领域。


最近他们还发布了两个产品,一个叫RealSecure,主要做隐私保护,如何安全地利用数据,数据里面有隐私信息,如何从计算层面进行保护,实现可追溯,如何保持可追溯,如何让有偏见的数据清除掉,这是我们在这个方面做的一款产品。另外一个产品是RealSafe2.0,可以抵御攻击。


“要提出一系列治理的政策、方针,将技术的发展、治理的方式与时俱进,两者结合起来。”张钹表示,这是一个长期任务,因为人们不可能发展出一个绝对安全的人工智能算法,在发展过程中,技术要跟治理两者相辅相成,共同前进。 (人民)


来源:gh_1d89a2a9e771 江苏省科协

原文链接:http://mp.weixin.qq.com/s?__biz=MzU1NjU4Mzk2MA==&mid=2247495323&idx=2&sn=ffff0ddf70d1caca3a1bf2051434ad96

版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。

电话:(010)86409582

邮箱:kejie@scimall.org.cn