何为“AI伦理”?又何为“AI治理”?

沈梦林 2021-12-13


编者按:人工智能(AI)技术的发展正在重塑当今社会生产方式与产业结构。AI 在提升生产效率、赋能产业的同时,也为社会带来了全新的挑战。自动驾驶汽车交通事故的防范与归责、新冠疫情下个人隐私的保护、人工智能技术的应用对就业的影响、技术是否会引起贫富差距扩大等,均成为公共讨论的议题。

如何应对 AI 可能对社会产生的负面影响?AI 伦理与治理的讨论应此而生。“如何避免大数据时代下个人隐私形同虚设?”“代码是否具有道德?”“人工智能时代的道德代码如何编写?”

微软全球资深副总裁,微软亚太研发集团主席,微软亚洲研究院院长洪小文受邀参加未来论坛 AI 伦理与治理系列活动,在“AI 向善的理论与实践”主题论坛中发表了看法。

洪小文认为“技术都是死的,我们才是制造者与使用者。所谓的 AI 道德,最后反映的是我们的道德,是我们的价值观。”

以下是论坛全文,转载自未来科学论坛公众号。

© MSRA

议题一:人工智能将会对人类社会带来哪些挑战?近些年 AI 的发展,已经产生了哪些问题?社会应该如何应对?

1.技术导致的不良后果其实源于人类自身;

2.微软人工智能设计原则:合法与主权、负责、透明、公平、可靠与安全、隐私与保障、包容。

洪小文:怎么样让技术促进经济发展?怎么样让技术促进社会进步?在大多数情况下,技术都是好的,而在技术被广泛应用后,也产生一些大家所担心的负面隐忧,英文叫“Techlash”。

这里举一些例子。首先,每个国家的经济发展程度不同,如果有些人可以使用到最新的技术,而有些人不能,这就可能带来发展的不均衡和落差,带宽、网络的就是这样的例子;另外,关于安全、隐私的问题大家也谈的很多。比如社交媒体中出现假新闻,如果不小心误传误信,就会影响决定;还有数据和技术偏见的问题。有数据就一定会有偏见,因为体量再大的数据也不可能涵盖所有方面;再有就是关于 AI 在武器上的使用以及技术取代人类工作的问题等等。我认为水能载舟,亦能覆舟,不能说技术无辜,但是真正的问题还是在于技术背后的创造者,在于怎么使用技术,因此技术导致的不良后果其实源于人类自身。制造者、用户、政府、受影响者都是重要的相关方。

微软1998年提出了人工智能的相关原则(“Responsible AI”),要求以负责任的方式设计人工智能。其中,最基本的原则就是合法与主权。对数据及人工智能治理而言,今天很多规则性的内容都会变成将来的法律规范。微软作为一家跨国公司,在任何国家或地区经营都要保证合法性、尊重其主权。第二是负责,任何技术和产品都有其设计制造者,要对技术和产品的部署和运营承担责任,包括法律以及社会等各方面的责任。第三是透明,设计制造者要能够解释程序如何设计,尤其是数据的收集,更需要透明化。比如当摄像头被安置在公共场所搜集数据的时候,需要提前告知数据被收集对象,进入数据收集区域其头像信息可能会被采集。第四是包容,做任何东西都需要考虑到所有的人,也要求我们创造的技术能够服务每个人,包括少数族群,残障人士,所以开发这些人工智能技术的时候需要考虑如何保证它的包容性。第五是隐私与保障,有些人利用互联网或者 AI 在网络上做一些不道德的事,比如说“黑客”、“钓鱼”,对于系统或平台而言,很重要的时要保障用户不受网络骚扰、身份信息不被窃取,以及避免产生一些实质性的灾难;第六是可靠和安全,任何 AI 系统都不可能万无一失。例如一个 GPS 系统,即使只要有万分之一的机会把司机引到悬崖,那也是不安全的。所以怎样做到安全可靠在 AI 领域中非常重要。机器学习都会存在一定误差。问题在于,存在误差的时候如何预防风险,如何提供更进一层的安全保障。第七是公平,坦言之很难做到,因为没有绝对的公平。在现实条件下存在很多偏差或偏见,这些偏见或偏差可能来自数据,可能来自我们的固有认知,可能属于一种社会偏见,毫无疑问,每个人都存在偏见,问题在于怎样不把偏见带到我们所制造的东西里、怎么样避免这些偏见。

最后,技术都是死的,我们才是制造者与使用者。所谓的 AI 道德,最后反映的是我们的道德,是我们的价值观。对于科技工作者而言,需要把正确的价值观与道德纳入技术语言中进行表达,但即使这样还不够,还需要跨领域的合作,需要法学家、社会学家、人类学家等都参与进来,才有可能把这个做得尽量完善。

郭锐:谢谢洪老师。我有两点思考,一是这个规制框架是否可以拓展,我认为它现在可以用于专用人工智能领域,在未来向通用人工智能行进的过程中,这样的框架是否可以继续适用,还是我们需要一些新的道德准则?道德准则是否可以内化在算法之中?洪老师讲到的公平性问题,与此密切相关。二是洪老师提到一个关键词——信任,社会对技术的信任至关重要,中国在过去20年特别是近10年来在人工智能领域的发展,很大程度上借力于社会对于技术的拥抱和信任。我记得薛澜老师讲到过信任的重要性,下面有请薛澜老师,对这个问题给出点评。

1.AI 改变了人类与技术的关系;

2.信任问题。

薛澜:关于刚才谈到信任的问题,第一,从某种意义上讲,很多传统技术是相对被动的,所以人类的应用行为显得比较主动。但是我觉得人工智能技术的不同之处在于,好像它不完全听从我们,因为人工智能还具有智能性,因此我们与技术的关系好像发生了改变。如此一来,我们有时候的确担心它会不会错误决策导致不利的后果。我们对传统技术占据主动权,清楚知道这些技术能做什么、不能做什么,但是使用人工智能技术进行人机交互时,有时候感觉不一定敢那么自信。

第二,我觉得对技术开发的公司而言,信任问题需要被重视,特别是隐私问题。正如刚才大家所说,鉴于人工智能技术在应用过程中搜集了大量数据,如果我们百分之百地信任这些公司,比如说用户知道技术公司只是把数据作为一个机器学习的原料,那对于它们收集数据的行为,我不会太担心。但是,现实中有些技术公司或其中的部分员工存在不道德地利用信息的可能,比如把个人或非个人数据汇集在一起得到更多的信息,或者把这些数据打包在网上拍卖,这些行为我们都看到过。所以从用户角度来讲,我们就希望非常清楚地知道智能公司的开发系统如何运行,对我们数据的处置是否合理。

郭锐:谢谢薛老师的点评。人工智能技术和其他技术相比,能够更加直接地作用于普通用户。比方说,如果能源的相关技术改进了,我们就会看到日用品的价格下降,或者用电的价格下降,但人工智能技术好像可以直接对我们产生影响。在数据领域中,如果我们意欲使用某个技术,可能需要技术的部署应用企业收集我们的信息,但同时我们又担心所收集的信息是否会被误用。刚才华夏老师也提到了一个很重要的问题——隐私问题,从您的角度来看,我们怎么应对人工智能技术对社会的影响?

1.隐私问题:数据归属于谁,如何保护用户隐私?从两个层面加以分析:一是提高透明度,二是企业自律。

2.安全问题:需要多方共同参与法律法规的制定与完善。

夏华夏:我觉得洪老师的架构图总结得非常好,尤其是把法律法规放在底下兜底,上面包括隐私、公平这几个问题,内容全面、层次分明。说到数据隐私的问题,现在很多企业都掌握着大量数据,我们也在思考如何合理保护用户隐私,这个问题蛮难的,有时候数据的归属问题并不是那么清楚。

前几天跟龚克老师沟通的时候,他提到当我们去医院拍一个医学影像片时,医学影像的数据到底属于谁,是属于用户吗?医院的确是拍的是用户的片子,但同时如果没有医院、没有工作人员通过仪器加以采集,没有医生为他做各种医学诊断或判断,这就不是一个完整的数据。因此至少有三方跟这个数据有关系,数据的所有权归属问题比较复杂,在此基础上,怎么保护最终端用户的隐私,也是一个蛮有挑战的问题。一方面,刚才洪老师在框图第二层中写的是是透明度,透明化对于隐私来说是一个非常好的解决之道。当科技企业收集用户数据的时候,企业会告诉他该数据在未来可能会有哪些用途,这种告知就是解决隐私问题非常重要的手段。如果技术足够成熟,每次调用用户数据的时候,系统都能自动通知每个用户,这就使用户更加安心和放心。再一个方面,保护数据隐私,可能还要从企业的自律方面做很多工作,企业到底怎么使用、内部数据谁能看到,是一个非常重要的问题。比如在美团为此专门成立人工智能治理委员会,内部制定了很多数据使用的规则和规范,划分了诸多数据的保密级别,高密级的数据只有在极少数的情况下通过专门的程序才可以调用,这样就能够比较好地保护用户的隐私。

此外,整个数据的安全性也是一个很重要的技术要求,AI 系统或者用户数据的数据库不能轻易被黑客攻击进来。当然,兜底还是要靠法律法规。洪老师把法律法规列在底下非常合理,就人工智能治理而言,不管是安全、隐私、公平还是就业,法律法规最终是一个兜底方。最近国家也在非常积极讨论数据保护的相关法律法规,这些法律如果得以应用,对于企业是约束,对用户是更放心的事情。未来隐私会是一个需要大家共同参与才能解决的系统化问题,法律法规也是如此。

© MSRA

郭锐:谢谢华夏老师。大家都对法律寄予很高的期待,各国立法者好像都在进行技术追赶,很多法律学者都开始关注这个领域,都想知道怎么样应对人工智能带来的问题。但是,作为一个法律人,我想说我们必须看到法律本身的特性。立法是一个缓慢的过程,可能需要集中民意,通过诸多论证之后才能完成立法。反倒是在技术和行业层面上,能够更快地对问题做出回应。

我注意到前面几位老师都是从现存的 AI 技术出发来思考 AI 系统及其给社会带来的问题。我最早思考这个问题的缘起,相信和今天参与直播的很多观众一样,是关注 AI 技术的潜力。我想请教一下漆远老师:很多人真正思考 AI 伦理问题,是因为看了一些科幻电影。科幻电影里面经常出现的一个场景,是 AI 的智能大大超过人类,甚至对我们的生存造成了威胁。在技术领域里面,大家对于通用人工智能甚至超级智能是否可能实现有不同的看法,我想请教漆远,您认为通用人工智能可不可能实现,有没有可能给我们带来生存上的危机?再请您对这个问题的整体进行回应,一会儿有机会也想听听大家如何看待这个看起来有点遥远的未来问题,下面先请漆远老师。

1.未来能否实现通用人工智能?并非绝无可能。

2.AI 治理需要推进与法学、经济学等结合的跨学科研究

漆远:在一个机器学习学术的顶会里有过一个调查:你觉得什么时候通用人工智能何时会实现?即使在一个非常专业的技术会议里面,答案也是百花齐放的——有人认为五年,有人认为五十年,有人认为永远不可能。这个反映了什么?说明对科学的预测本身是非常难的。现在学界业界比较关注的是深度学习。现在有个说法是“大模型即正义”。自然语言处理等模型参数从以前的百亿级到现在的千亿万亿级。海量的数据和计算使得大模型能力越来越强。比如使用大规模自然语言模型可以自动写出真假难辨的新闻,——当然,这是另外一个话题,即数字生活安全与可信问题。但是面对如此强大的自然语言模型,如果我们问2+3是几?它能回答出来,但是如果问“1525091+8747721”是多少?它就无法回答了,能力还不如一个简单的计算器。这背后说明一个问题:从人工智能围棋程序“Alphago”到现在一系列数据驱动的深度学习技术出来以后,很多人都对人工智能的发展比较乐观,但其实现阶段的人工智能所具备的推理能力还非常低的。

人工智能可以有很多条发展思路,现在大家看到的深度学习只是思路之一。未来把知识、人的推理能力和数据驱动的深度学习结合在一起,可能成为未来非常重要的发展方向。在这个目标没有实现之前,也就是说在 AI 在不具备常识推理的能力时,实现真正的通用人工智能是不可能的事情。换句话说,AI 目前像一个走火入魔的练武之人,它在某一个领域特别厉害,但是稍微改一下领域,它可能会出大问题。AI 的推理能力、可解释性都是非常关键的问题,如果没有解决这些问题,我们谈的通用人工智能是不太可能的。

但是从另一方面看,也不能说绝对不可能。今天我们在这一个有意思的时间点上,未来有各种可能性。如果把几种技术思路和因素结合在一起,或许能够在通用人工智能的路上大踏步走出一步,这谁也不知道。就像在2010年深度学习兴起之前,深度学习背后的很多思路早就已经有了,但并没有落地推广。随着海量数据和强大计算能力的到来,深度学习在十年间突飞猛进,被业界大量使用。我们谁都不知道会不会有新的种子点燃新的剧变。但是我们必须努力的是在人工智能技术被广泛使用的今天,如何治理 AI 技术,保证 AI 技术的可靠和可信。打一个比方,假如我们不知道如何管理高速公路,最简单的方法是关闭高速公路。但如此一来会降低大家通行效率。这显而易见不是我们想要的治理方法。我们会通过建立红绿灯等交通管理系统进行管控。类似的,我们要在发展 AI 的同时,做好 AI 治理系统和相关技术研究。而要做好这个,需要对 AI 技术与法学、经济学等结合进行跨学科的研究和思考。跨学科的研究将有助于 AI 走向可靠的、可持续发展之路。

实通用人工智能的技术发展边界问题

薛澜:通用人工智能是个非常有意思的话题,我想趁这个机会问一下三位专家,假设人类实现通用人工智能以后,AI 有可能做出更多更能干、更强大的事情。但是,通用人工智能发展到某个阶段,可能会对人类产生一定的威胁,在这样的情况下,我们到底应不应该开发这项技术?一般性地讨论时,大家都会说科学技术研究应该无止境、无前沿,走到哪算哪,但当我们预料到某些问题的时候是否应该按下暂停键?在通用人工智能技术开发方面,它的界限要不要设、应该设在哪儿?想请三位专家来帮我们解答一下。

实现通用人工智能”的说法并无现实依据;AI 技术的控制关键在于规制其背后的制造者

洪小文:第一,对于“实现通用人工智能”的说法我们还没有看到任何现实依据。第二,通用人工智能至少有两种,所谓“通用人工智能”,就比如我们人类自身,就是一种通用人工智能。我常常讲,“强人工智能很弱,弱人工智能很强”,什么意思呢?弱人工智能就是专家系统(Expert System),它只能做一件事,做得比谁都好,比如做一个特定物体的辨认系统,它就只能辨认狗和猫或者犯罪嫌疑人,这叫“Narrow AI”,它很强大;但是我们呢?恰恰相反——每样都懂一点,比如我可以谈治理,可以谈 AI,也可以谈量子,什么都可以谈,但是我除了计算机是专家,其他都不是专家,因此事实上通用人工智能是很弱的。我们的孩子也是通用人工智能,你今天会教他做所有事情吗?当然不会,只会教他做某一件事情。所以,我觉得大家对通用人工智能不要抱以太多厚望。我们担心的其实是“超级人工智能”(Super intelligence),比方说这个人什么都懂,什么都是世界最强,有没有这样的客观存在?就目前所有对通用人工智能的研究来看一点影子都还没有,因为今天的人工智能根本没有具备系统化解问题的功能。试想,我们今天怎么造一个机器,让它解一个从来没有遇到过的新问题,让算法自己去解问题根本不可能。我们今天很多问题无解,就拿计算机里面,NP 是不是等于 P,没有人知道。对于某些问题,我们也根本不知道怎么解决,所以我觉得通用人工智能离我们很远。

讲到治理,谈一个没有的东西:时间机器(Time machine),怎么治理?这可能是哲学界可以讨论的问题,但今天我们对它的讨论不是哲学意义上的讨论。对于你刚刚的问题——如果有人说他可以做出超级人工智能来,我们该不该禁止?讨论这个问题前,我觉得考虑近期问题可能更为迫切,比如转基因或者基因编辑,就是“人造人”,基因工程可以造福人类,也可以为害一方,所以哪些科技应该得到发展,这也是哲学意义上的问题。还有一点我比较有信心的,人做任何事情都希望它可控,很多人担心我们创造的事物不可控,因此,任何一个科学家进行发明创造,没有人希望不可控,没有人希望最后把这个世界给毁了。除了疯子以外没有人会干这种事,但是怎么限制疯子呢?这又要回归到哲学性的探讨。如果人类真的实现了通用人工智能,我们能否控制它,在于我们需要控制其制造者。

1.AI 未来发展不好预测,但是实现通用人工智的概率不是零;

2.可靠性与信任:AI 制造者负有责任,也需要将人和机器作为大系统整体来思考和分析;

3.隐私问题:协同行业共同发展“可用不可见”的隐私保护的机器学习技术,促进隐私保护与数据价值实现的平衡

漆远:几年前在麻省理工学院(MIT)顶尖科学家之间有一个非常好的辩论,关于通用人工智能。他们辩论的主题是——将来机器人是否能够像牛顿和爱因斯坦等科学家一样发现科学定律。几年前在一个电视节目上我和伯克利的杨培东教授、清华的鲁白教授和西湖大学的许田教授等人,讨论过一个关于未来的技术问题。当时,我也提出了这个问题。我没有答案,但是我感觉这是可能的。在 MIT,这是一场非常激烈的辩论,在场的研究者分为两派,一派认为不可能、这个技术的“种子”不存在;另一派认为,为了实现这个目标,这个技术路线未来如何发展我们不得而知,但有可能实现。我们并不知道未来会具体发生什么,实现这个目标的挑战会非常巨大,但其实概率是零的事其概率才是零。就好比在金融风险领域不存在任何情况下绝对不会发生的风险。系统可控性同样如此,人人都想做出可控的系统,但是系统经常就在我们以为可控的时候出现不可控的情形。所以系统设计里面要留有所谓的“冗余”(Redundance),即理论上没有问题,但工程实现的时候,要留有冗余和余地。

这里就讲到信任和可靠性的问题。确实,人是第一重要的,现在的机器也是由人制造。在著名的科幻作家阿西莫夫提出的“机器人三定律”中强调,机器人必须听从人的指令,不可以伤害人。但是,假如我们未经认真思考,对机器人下达了一些不计长期后果的指令,就完全可能发生我们没有预料到的大规模风险。从无人驾驶到医疗服务、金融服务,机器正在参与越来越多的决策。认为只要控制住人,智能系统就没有风险,这其实远远不够的。一个原因是智能系统越来越复杂有很多无法理解的地方,所以前面我提到“可解释性”非常重要。技术人员往往希望系统是开放透明的,能够持续发展的。但是在技术发展成复杂系统后,就技术本身而言,普通人很难明白背后发生了什么、很难解释技术背后的原理是什么,系统里的因果关系是什么。现实中会很难认定事故背后的真实原因,是人造成的,还是系统的哪个因素造成的。不能简单的说,人是负责的(accountable),系统就是负责可靠的(accountable)。比如司机很称职,但如果刹车出现故障,同样可以导致车祸。所以需要将人和智能机器看一个大系统从整体来思考和构建可信可靠性。

数据隐私保护,是用户保护的问题,也是一个数字经济的发展问题。一方面涉及数据生产资料,但另一方面又事关每个用户的权益,如何在保护用户隐私的同时,让 AI 发挥数据价值推动经济持续发展,这也是一个非常关键的问题。隐私的反义词可以是“透明”,透明能够帮助信任,但就保护隐私而言,有些地方是不能透明和对外开放的。对于隐私保护来说,去标识匿名化是我们可以使用的技术方案之一。但如果将数据简单地完全匿名化,数据所含的有用信息量也会大大减损,数据价值降低。其实数据作为一种生产资料,就像大楼的砖头一样,砖头放在一起才能盖起大楼,单个的数据点很难产生巨大价值,只有互补的数据源合在一起才能让 AI 发挥最好的价值。

这里就引出了一个非常关键的问题:智能时代下的数字经济能不能既保护隐私,又发挥数据核变的经济推动能力?蚂蚁集团在2016年开始布局隐私计算、开发相关技术,在世界范围内我们拥有数量最多的隐私保护专利,包括“差分隐私”、“多方计算”、“可信环境计算”等技术。这些技术可以帮助数据可用不可见,但是他们有不同的安全等级。我们可以基于场景,把数据和隐私保护技术进行分析分类,把他们划分成不同安全等级,在某些安全等级下可以用对应的某类数据和技术。每一个安全等级都有对应的代价,就像越重的汽车往往越安全,但是也消耗更高的能量。我们要基于场景需求来选择适当的技术。最后,隐私是一个社会问题,需要更多的人来一起讨论,需要来自各行业的研究者和从业者共同讨论。世上没有一个绝对的答案,就像中国文化讲求的平衡发展,我们要在中间点上找到一条共同前进的路。

郭锐:我以前听过一个笑话:有一个修车的人,他问医生:“凭什么修车的一个月就赚这么一点钱,医生就赚的比我们多得多?而我们做的工作是一样的,我就是把车上面坏的部分修好,你就是把人身上坏的部分修好。”医生说:“你是怎么修的?你把车停到修车库,抬起车,把损坏的零件取下来,订一个新的零件,把它装上就好了。我怎么干我的工作?我有一个病人正在呼吸,但是我要给他肺部动一个手术,要保证他在这个过程中不能死,还要让他减少痛苦,把这个手术做完,还要保证病人复建后很好地完成所需的一切活动,医生的工作要比你难得多。”我们在人工智能技术已经投入应用、而且实实在在地对社会产生影响。同时,我们还在进行技术方面的改进、实施各种治理方案,这需要我们像医生一样谨慎。存在各种各样和 AI 相关的技术和治理问题——隐私的问题、公平性的问题,还涉及到透明度的问题——如何在治理的同时,还能从整体上赢得社会的信任?

提交