AI威胁未来人类社会? 为AI设定的“二十三条军规”

leo 2017-08-23

随着AI强劲复兴,在一个又一个领域里,AI的卓越表现让人惊艳,但新一轮的担忧又出现了:AI会超越人类智能吗?什么时候超越?AI会威胁人类吗?在一天天强大的AI面前,人类将何去何从?

2017年年初,牛津大学历史学博士、以色列希伯来大学的历史系教授尤瓦尔·赫拉利(Yuval Harari)的一本新书中文版一纸风行,书名叫《未来简史》(Homo Deus: A Brief History of Tomorrow)。虽然冠以历史,但全书却是在描述人类未来,尤其是AI影响下的人类未来。书名中的拉丁文Homo Deus,意思是人神或神人,翻译者处理为智神。作者的上一本畅销书《人类简史》讲述作为智人的人类,如何创造了今天的辉煌,而新书则讲述人类的新阶段,即受到AI强烈影响的阶段。书中有一个关键的、极端的、当然也备受争议的观点,那就是在AI影响下,人类的大部分可能变成无用阶级,只有少数人进化成特质发生改变的智神(人神)。

《未来简史》这个时候出版,自然引起了广泛关注。尽管也受到了广泛的严厉批评,如英国《经济学人》杂志尖锐抨击《未来简史》是“一部肤浅、华而不实的作品。”但这些批评似乎没有影响书的热销,书中观点,如认为无机算法(机器算法)会超越有机算法(生物算法,即人类算法)、智人(今天人类)会失去统治力等等,都广为传播。

如果仔细阅读相关书籍,会发现名人及他们的畅销书其实也并不完全是在描述黑暗未来。2017年1月新华社记者采访尤瓦尔·赫拉利,直截了当地问他对人类未来是悲观还是乐观。他的回答是——总体乐观,关键在于全球合作。对于人工智能可能带来的问题,最重要的是处理好人类和技术的关系,让技术服务人类,而非奴役人类。而包括人工智能问题、生物技术可能带来的问题、气候变化问题,都需要全球共同应对,因为没有一个国家可以单独解决这些问题。从历史上看,人类总能直面挑战。比如上世纪五六十年代,人们曾担心核武器会毁灭地球,但最终,人类用智慧解决了这一问题,保持了总体和平的形势。

如果赫拉利有着这样的认知,也许与多数人的意见并不相左。但是,由于媒体的推波助澜,名人们对AI未来发展的各种负面分析和预言更加集中和突出,使AI威胁论形成舆论涟漪,一波接一波扩散。

AI威胁论为什么是错的?

而主流AI专家学者,坚持反对AI威胁论。脸书(Facebook)AI实验室主任、纽约大学计算机科学教授杨立昆(Yann LeCun),是深度学习的主要奠基者之一,他非常反感AI威胁论。 2014年4月在接受IEEE 《Spectrum》采访时,他认为AI研究者在之前很长的一段时间都低估了制造智能机器的难度。AI的每一次新浪潮,都会带来这么一段从盲目乐观到不理智、最后到沮丧的阶段。

今天出现AI威胁论的盲目悲观预言,很像是进入一片生机勃勃茂密森林的人,迷失了眼前的方向和路径。如果能登上森林之巅远望,回顾来路,远眺前方,那结论可能完全不同。

历史是一面镜子。《互联网进化论》作者、中国人工智能专家刘峰博士这样分析道:历史上,我们一路在恐惧中走来,恐惧过日食、月食;新技术革命后,我们的恐惧更为频繁,害怕过机器,恐惧过机器控制人类;害怕过火车,认为会破坏龙脉;害怕过电视,担心永远沉迷于节目中;害怕过千年虫,会导致社会大混乱;现在开始恐惧人工智能。担心人类变为奴隶,甚至木偶,这恐惧依然是历史上种种恐惧的延续。

是的,现在的AI威胁论,依然是人类未来不确定恐惧症的延续,每当重要的新事物出现时,这种恐惧症就会周而复始出现。而这样的恐惧症,往往由于名人和智者一时或片面的言论而得以加重,甚至出现了AI会终结人类的呓语。

为AI发展作出奠基性贡献的阿兰·图灵,既是智者,也是名人。他系统研究过机器能否思考、机器是否具有智能这类问题,并很早就预言过计算机的未来。图灵1954年不幸去世后,母亲莎拉·图灵(Sara Turing)写了一本影响很大的书,书中引用了图灵最亲近同事、英国数学家纽曼的夫人一封信。纽曼夫人写道:“我记得大约是1948年,阿兰同我丈夫坐在我家位于鲍顿的花园里讨论计算机及其未来动向。我未能参加这次讨论,但不少话语传入了我的耳中。突然我听到一句话,使我不禁全身打颤。阿兰沉思后说,‘我推测当计算机发展到那个阶段,我们将可能不了解它是怎么工作的。’”图灵对计算机未来的思考,不仅影响了在场的纽曼夫人,也曾影响了那一代人。但是,快70年了过去了,我们看到的是什么?有人还会为计算机的未来恐惧得全身打颤吗?智者的预言失效,这不是第一次。

今天的AI可能还是胚胎

对于今天的AI发展阶段,著名华裔女科学家李飞飞2017年5月在谷歌 I/O 2017 大会上,曾经有形象的描述。她认为,过去的 60 年,可以称为“in-vitro AI”,或者“AI in vitro”(in vitro即试管内、生物活体外)阶段。这一阶段为AI研究的基础问题以及众多子学科打下了基石。后者包括机器人、计算机视觉、自然语言处理、语音处理、生物保护学等等。这同样是一个研究人员们不断理解数据、寻找工具集的过程。

李飞飞说,2010年左右是一个分水岭。这时,三个不同领域的进步终于达到了一个前所未有的里程碑高度:统计机器学习领域工具的成熟、互联网和传感器带来的大数据、摩尔定律预测的硬件计算性能提升。这三者的合力,把AI从“in vitro”阶段,推上了一个被称为“in vivo”(in vivo即生物活体内,也可以理解为胚胎阶段)的全新阶段。

“AI in vivo”,是一个AI技术向世界做出实际贡献的阶段。当下这个时间点,还仅仅只是个开头。在李飞飞眼里,这是一个历史性的时刻:AI终于开始发挥现实影响力,改造无数个行业。

李飞飞强调:一切刚刚开始。现在AI领域的工具和革命性技术,仅仅是广袤海洋中的几滴水。剩下的可探索空间,即我们能借助AI实现的事情,几乎是无限的,再怎么夸大也不为过。对此,如果为此感到兴奋激动,或许是应该的——有许多工作等着我们去做,来实现“AI in vivo”。

李飞飞的上述描述非常准确和精彩。如果把AI比作试管婴儿,已经经历了60年漫长试管阶段,而放入人类社会这一巨大的生物体内成长的胚胎阶段才刚开始。这时的AI具有蓬勃生长的无限活力,但目前还只是充满希望的胚胎。

AI专家们比较一致的观点是,今天的AI在感知和认知方面已经取得了长足的进步,常常超过人类智能。而在情感和自主意识方面,AI与人类智能还有非常大的差距,甚至可以说还存在鸿沟。

机器智能和人类智能的这道鸿沟,能不能填平和什么时候填平,也是人类长久探讨的问题。

乐观的信号出现

即使在这样的阶段,人类也高度重视AI给今天和未来带来的影响。例如,AI和机器人应用最大的影响,是改变人们的工作岗位。工作岗位的变迁,在人类社会发展中一直存在,但近年来AI威胁论者不断地渲染和夸大,AI和机器人会夺去人类的饭碗。于是,对工作岗位变迁的研究,是重大社会课题之一。

关于AI影响工作岗位的研究报告一个接一个地出台,以前的报告常常含有警示意义,提醒人们要高度重视这一问题。但是,乐观的报告也开始出现。2017年4月,瑞银财富管理推出了《亚洲前曕:人工智能如何塑造亚洲新面貌》研究报告。报告大胆预测,在AI驱动创新的潮流下,亚洲地区中长期将有3000万~5000万个工作岗位受到冲击。国内一家知名媒体据此制作了这样的标题——《瑞银:人工智能将威胁亚洲3000万个工作岗位》。其实,报告中还有更重要的信息——随之而起的新工作机会将能减轻此影响。

瑞银估计,至2030年AI每年为亚洲贡献的经济价值将高达1.8万亿~3.0万亿美元。而AI对金融服务、医疗保健、制造、零售和交通等行业都将产生巨大影响,这些行业加在一起,相当于当前亚洲GDP的三分之二。

瑞银认为,AI会影响大量的岗位。但从总体上看,AI不大可能导致就业危机。亚洲员工整体生产力会随着AI的崛起而显著提高,将有充分的机会来提升技能,并转向其他创造性领域。最终AI会在亚洲创造数百万个新的就业机会,因此净失业率应会大幅降低且相对可控。

瑞银的报告给人以启示,AI是会大量影响工作岗位,但如果应对得当,社会的整体就业情况反而会改善。瑞银的研究报告,可以作为对尤瓦尔·赫拉利们的回应。

工业革命以来的经验与事实也可以作为佐证,机器的广泛使用使农业和手工业工人大量减少,但全社会就业岗位却大量增加。信息技术革命也是如此,水银泻地般渗透进各行业的信息技术,影响了无数旧的工作岗位,但我们也亲眼目睹,新的岗位源源不断产生出来。有人曾经计算过,如果没有数字程控交换机,一半以上的美国妇女从事电话接线员工作还忙不过来。但今天她们在哪里?在另外的岗位上。这是新技术调整工作岗位的一个典型例子。历史的镜子,可以照见AI的未来。

未雨绸缪的“二十三条军规”

人类更重大的关注点是AI伦理与相关法律,这是关于AI的根本性问题。联合国教科文组织一直重视技术伦理的研究。2016年12月,教科文组织的顾问机构世界科学知识和技术伦理委员会(COMEST)新技术研究的一个工作小组,发布一份报告草案,报告审视了使用自动机器人及人机互动的相关伦理问题。报告指出,快速发展的高度智能自动机器人,很可能会挑战现有的道德划分标准。报告坚定地指出,机器人行为即便再复杂、再智能、再自动化,仍然是由人类决定。由于设想未来机器人可能会变得更高级(可能达到能通过经验学习来设定自我的程度),因此,它们的规则系统会成为值得认真考虑和反思的伦理问题。报告还认为,如果机器人的自主性发展到有必要对其进行伦理制约的程度,可以通过将专门的伦理代码编程到系统中,来防止它们做出危害性行为(如威胁人类和环境)。报告特别指出,考虑到当代机器人的复杂性,当机器人功能紊乱而伤害到人类的情况出现时,谁应该承担伦理和法律责任是一个新的研究领域。

联合国教科文组织在研究和建立全球AI伦理方面责无旁贷,这项工作也应该由全人类共同参与和担责。

2017年1月,在美国加州阿西洛马召开的“阿西洛马会议”(the 2017 Asilomar conference)上,特斯拉CEO伊隆·马斯克、DeepMind创始人戴米斯·哈萨比斯等844名AI和机器人领域的专家们基于对AI迅猛发展的深切关注,联合签署了“阿西洛马AI原则”(Asilomar AI Principles),这一文件也称为阿西洛马宣言。宣言呼吁全世界的AI工作者遵守这些原则,共同保障人类未来的利益和安全。

阿西洛马AI原则分为三大类23条。第一类为科研问题,共5条,包括研究目标、经费、政策、文化及竞争等;第二类为伦理价值,共13条,包括AI开发中的安全、责任、价值观等;第三类为长期问题,共5条,应对AI造成的灾难性风险。这23条原则,也被称为“二十三条军规”。这样的比喻借用自美国著名作家约瑟夫·海勒的黑色幽默小说《第二十二条军规》书名,含义是为AI的不规范或非法行为设置不可逾越的障碍和禁区。

不妨对比一下我们熟知的美国著名科幻作家阿西莫夫的机器人三定律——第一定律:机器人不得伤害人类,或因不作为使人类受到伤害;第二定律:除非违背第一法则,机器人必须服从人类的命令;第三定律:在不违背第一及第二法则下,机器人必须保护自己。我们发现,出发点都相同,阿西莫夫的三定律更简洁明了。

但是,阿西洛马AI原则意义更为重大,反映出人类AI应用日趋成熟的同时,面对的人机伦理问题更为复杂。因此,对AI今天和未来的思考更加成熟和周密,已经在伦理和法律上认真探讨对AI进行实际有效的管控。阿西洛马AI原则是人类进入AI时代的重要宣言,是指导人类安全开发和应用AI的重要指南。因此,阿西洛马AI原则受到AI从业者和全社会的共同支持。

上述的研究报告和宣言,也许是人类行动的第一步。对AI时代人机伦理的探讨与研究,以及相关法律的制定与完善,将是一项永不休止的基础性工作。尽管AI还在胚胎阶段,但人类对它的未来,已经未雨绸缪,做好周密的准备。

所以,AI是人类可靠的智能工具,也是亲密的朋友,我们完全有信心和能力,让未来美好家园里,永远不会出现终结人类的机器恶魔。

文章来源:《环球科学》总编、社长陈宗周先生撰写,部分有删减

未来简史

推荐资讯