李飞飞、Reid Hoffman访谈:算法歧视、GPT-3以及美国AI的未来走向

宫奥博 2020-11-25

图片出处:Standford、Wiki

李飞飞,斯坦福大学大学计算机科学教授,ai 领域领军人物之一(尤其是计算机视觉方向),前谷歌机器学习及人工智能首席科学家。

Reid Hoffman,领英联合创始人(于 2016 年将领英出售给了微软),硅谷传奇投资人,微软及 Airbnb 董事成员。

两人现都在斯坦大学的 “以人为本” 人工智能研究中心(Stanford Institute for Human-Centered Artificial Intelligence,下文简称 HAI)共事。李飞飞是该中心的联合主管之一,Reid Hoffman 则是顾问委员会成员。

众所周知,AI 在现代社会中已经被用于很多领域,从甄别垃圾电子邮件到自动驾驶,但 AI 的广泛应用同时也伴随很多风险,比如目前争议比较大的 “AI 在数据分析中产出的歧视性结果”。

图片出处:Standford

两位处于 AI 领域的一线专家,在一次访谈中为介绍他们对 “以人为本的 AI 设计” 之构想,以下为经整理的访谈重点:

谈 AI 用以排除人类社会系统中的偏见

问:RID,你是领英的联合创始人,同时也是斯坦福 HAI 的顾问,是什么让你想成为该中心的顾问的?

RID:有很多原因,比如该中心有像李飞飞和 John Chimandi 这样的出色业内专家担任主管,但最主要的是 AI 将使世界发生脱胎换骨的变化,老实说,其实很多由 AI 带来的转变已经在我们的日常生活中随处可见,比如巨量的数据和信息处理、自然语言处理,医疗技术和产品的开发。

而这些转变之所以会出现,与我们赋予 AI 技术的期望有关,我们希望 AI 能让人类朝着一个更 “乌托邦” 的社会发展,而不是朝着一个 “反乌托邦” 的社会发展,但要做到这一点,我们需要为开发 AI 构建起一个更 “深思熟虑” 的架构,但这是当前大多数从事 AI 研发的公司所不能提供的,我投资了许多涉及 AI 研发的公司,它们都是在做着一些很棒的事的公司,但我期待像斯坦福这类的学术机构,能为我们将伦理学家、社会学家、心理学家、历史学家、政治学家带入到 AI 的开发过程中来,以确保我们真的是在向一个 “更乌托邦” 的方向前进。

问:那么,飞飞,到底什么是 “以人为本 AI”,你能为我们介绍一下有它和没它对 AI 技术的发展会有什么影响吗?

李飞飞:首先我认同刚才 RID 所说的观点,AI 技术的发展已经进入了一个新的阶段,但尽管 AI 已经在各种方面都影响着我们的生活,它仍处于发展初期,并不完全成熟,所以我们需要一个框架能确保我们按 “以人为本” 的原则开发 AI。

我的一个同事,哲学家、斯坦福政治学家及 HAI 负责人之一 Rob Rish 就经常说,“伦理应该在设计 AI 算法的时候就被考虑进去,而不是在 AI 算法被设计出来以后再考虑怎么把伦理加上”。

而关于 AI 是否有依照 “以人为本的原则” 设计,我这里举一个假想的例子,我们知道 AI 有被用于识别皮肤癌的工作,斯坦福大学前几年里曾发表过有关研究,内容是用一些有限的数据训练出了一个能识别皮肤癌的算法,但这里正是我们应该格外注意的地方,因为如果我们在以后此类的算法开发中不将伦理纳入考量,算法最终所能达到的水平,便可能会不及预期甚至出现一些 “无意” 的错误。

问:您提到的 “无意” 的错误是指什么?

李飞飞:比如皮肤癌甄别中的肤色因素,如果训练集中的所有数据都来源于一种肤色的人群,我们就有理由推断最终被训练出的算法在对于这一单一肤色的人群数据中能表现的更好,在其它肤色人群的数据中的表现可能会相对一般,这是一个非常简单的、算法会出现 “歧视” 的例子。

还比如视网膜的图片分析,有研究发现分析视网膜图片的算法竟能判断出该视网膜主人的性别,这是一个此前从未想过的涉及个人隐私的 AI 问题,因为如果你让人类专家去分析一张视网膜的照片,应该是完全不可能分析出视网膜主人性别的,但机器学习算法却能从图片中获取这一信息。

所以我们不能在算法被实现后再去考虑伦理的问题,而是应该在设计算法的阶段就将各界专家的意见纳入考量。

问:人脸识别近年来就经常因 “识别女性及有色人种” 正确率不高而备受抨击,而且 AI 技术去歧视化的过程也并不是一帆风顺,我们目前在 AI 去歧视化上还有多少工作要做?

李飞飞:无疑还有很多工作要做。人脸识别仅是众多需要被社会所关注、涉及伦理的 AI 技术之一,实际上,研究人员在该算法的设计阶段是想让其以一种 “好” 的形式被应用起来,并不是有意的要去造成这么一种歧视,比如世界上许多的 i Phone 用户就会用人脸 ID 去解锁他们的 iPhone,但如果 AI 技术在不公平,或缺乏监管的条件和环境下被应用起来,就会造成许多麻烦,比如催生新的犯罪、妨碍司法公正、威胁金融安全、干扰医疗诊断。因此我认为构建起一个跨学科跨领域,从一开始就将伦理纳入考量的算计设计流程十分重要。

RID:我想在这里补充一点,就是谈起 AI,人们通常首先联想到的是 AI 技术可能给社会发展带来的危害,比如有些观点就认为 AI 技术发展起来以后,其服务对象更多可能是有权有势的群体,而不是普通民众,这是一个非常严肃并重要的问题,但我们不能因此忽视 AI 技术未来可能会为社会发展带来的积极影响,比如虽然有的系统本身所具有的不完全公正性可能会造成问题,但如果系统在设计时就被妥当把关,设计出的系统也有可能会因具有本身所具有的公正性而造福社会。

问:此话怎讲?

RID:举例来说,现有的司法系统本身就是 “系统性不公正” 的,比如黑人就经常遭受有失公正的司法待遇,但如果我们的算法能将这种现有的系统性歧视计算出来并将其排出在司法程序之外,我们的司法系统便能因此变得更加公正。因此,虽然我们现在有看到当前的 AI 技术在一些方面存在缺陷,但人类当前现有的系统本身其实就是具有系统歧视的,而妥善开发和应用 AI 技术其实也可能能帮助解决现有社会体系中的一些不公正问题,促进社会正向发展。

李飞飞:这其实是一个非常重要的点,我这里也想再举一个例子以支持 Rid 的观点。

AI 技术是能被用于解决偏见问题的,比如我最欣赏的一个正在产业中被实践的研究方向,就是用人脸识别技术来解决好莱坞电影中的偏见问题。

该研究发现好莱坞电影中男性演艺工作者的出镜时间较女性演艺工作者的出镜时间更长,除了借助 AI 算法,没有任何一个人类能发现出好莱坞电影中存在着这种问题,而我认为 AI 技术很有可能,也应该在未来被更多地用于甄别出人类现有系统中的一些不公和偏见,并帮助解决这些问题。

企业机构为什么要关注 “以人为本” 的 AI 设计理念?

问:谈了这么多,从投资人的角度来看,公司和企业有什么理由对 “以人为本” 对 AI 设计理念产生兴趣?

RID:我认为有积极理由也有被动理由。

积极理由,比如能帮你开发出更好的产品、构筑员工和客户的忠诚度,为你所在的社会向更好的发展尽一份力。而被动理由就比如,如果你在开发产品时不将这些考虑在内,产品在以后就可能出现问题并引起争议,并使你及你的员工意识到所做之事不益于社会正向发展。

我们当下鼓励众多企业将这些入考量,并参考斯坦福 HAI 这种专门为应对这种问题所设立的学术机构去考虑这些问题,理由之一就是,你真的不一定能将所有的问题和点都考虑到,因为当前许多公司更注重的是怎样能打造出更好的产品,怎么才能比竞争对手的产品更好,但这些其实是相关的,仅需平常稍微在这方面投入一些资源,哪怕你的产品真的不小心因为系统性偏见造成争议,你也能用自己的行动告诉大家,确实在开发过程中有努力去将这些纳入考量。

问:众所周知,当下科技巨头们已经往 AI 研发中投入了大量资源,而 2020 年有很多立法都是针对这些巨头的产品存在缺陷而推出的,比如信息失真、憎恨性质言论、数据隐私、信任问题,所以如果这些立法通过,对这些科技巨头和 AI 产业意味着什么?

RID:首先,我认为以正确的角度进行立法非常重要,这将能帮助更好地将社会打造成一个类乌托邦的幸福社会,但立法有时所做的,其实是为了避免未来发生不好的事而尝试让一切维持现状,比如有立法就不允许公司在某些方向开发新类别产品,因为他们认为这样做所造成的风险实在是太大了。

但实际上在当前这个多极时代,并不是只有某一个公司或某一个国家在进行 AI 方面的研究,如果我们止步不前,缩手缩脚,别人就会超过我们(美国)。我觉得正确的做法应该是让专家和业界进行对话,企业向有关方面报告他们在做什么,没在做什么,这能让人们在技术结果不及预期时,与相关专家讨论可能的解决方案,然后在问题本质明朗以后,再让立法机构参与进来,对那些真正不合适的方向和做法进行限制,而不是因为惧怕未来可能会发生不好的事而止步不前。

李飞飞:我在 AI 所涉及的众多领域中,尤其关注其对医疗领域的影响。

首先作为中心的工作人员,以及从我个人是一个 AI 科学家的角度出发,我认为我们确实有义务与立法方开展对话。在医疗领域,AI 很有可能能为医疗技术的发展带来巨大的正面影响,但为了实现这一愿景,我们需要从确立合适的数据政策开始着手,因为当前所有的数据政策真的还没有准备好去应对急速发展的 AI 技术可能造成的各种问题。

我认为当下是一个历史性的时刻,因为 AI 技术开发者和医疗行业人士正在与立法方展开对话,从联邦政府到地方政府,我们正在讨论 AI 技术究竟怎样能最好地促进医疗技术正向发展。在考虑到数据安全、数据隐私以及偏见问题的同时,降低国家的医疗开销,并提升医疗质量。

我认为开展此类对话因此十分重要,因为这不是一个非黑即白的问题,AI 是非常有潜力的技术,而我们需要知道怎么立法才能将这一技术的潜力全部发挥出来。我认识的很多医疗领域工作者都认为,既然美国能在医疗技术创新和制药技术上领先全球,为什么就不能在基于 AI 的医疗技术研发和 AI 立法领域也领先全球呢?

图片出处:Standford

谈美国 AI 研发走向

问:这其实就引出了下一个问题,与全球范围内的 AI 研发现状相关,其实美国政府也有在尝试推动该领域的发展,比如国家 AI 安全委员会就是帮助政府更有效地在 AI 研发方面投入资源,并在全球范围内保持该领域内的竞争力。在全球范围内,美国现在在 AI 领域处于什么水平,应该优先进行哪些方面研究?

李飞飞:在过去几十年甚至一个世纪里,美国在全球范围内取得并保持科技领导力是让人自豪的,比如激光技术、自动驾驶技术、互联网技术,这些发源于美国,一个开放的民主国家。

虽然美国目前在 AI 领域处于领先地位,但如果想在未来也确保这一优势,无疑需要加大对该领域的资源投入。斯坦福 HAI 团队正在做的其实就是在帮联邦政府在该技术上更好布局,优化资源投入,并将更多的资源投给非盈利高等教育机构。当下,AI 研究很大程度上取决于算力和数据,企业,尤其是科技巨头在这方面有很大优势,但除了企业所关注的方向,AI 还有众多其它能造福社会的研究方向,这些方向将在学术机构和公共服务机构中得到重视,因此政府应该加大对非盈利机构在 AI 研究的投资。

比起立法,更需要营造一种全国性的 AI 科研环境,让人们能更合理地获得所需的算力和数据,而当下参议院正在讨论是否要通过一些与此有关的法案,HAI 也将在未来继续为实现这一愿景而努力。

RID:飞飞所谈到的确实很重要。如果美国想在未来继续保有全球科技领导力,我们就需要一个明朗的科技发展方针,加大对 AI 研究的投资无疑是明智的。

好消息是,目前美国有全球最优秀的科研机构以及来自世界各地的优秀科研人员,这些是美国得以建设并提升社会福祉的资源。李飞飞谈到的如何才能将资源更好地分配给各领域非常重要,比如学术机构、私人企业。同时更积极地向前发展,而不是因为惧怕发展所带来的风险止步不前。

另一点我要指出的是,现在我们很惧怕国际竞争,这不是好的想法。正是国际合作造就了当前现代社会的黄金时代,而这种合作无疑需要持续下去。

问:最后一个问题,不考虑你们本人的研究,未来 AI 领域的潜在突破会出现在哪?

李飞飞:排除我的研究领域,也就是机器人视觉方向,我认为下一个突破可能会出现在自然语言处理上。比如 Open AI 的 GPT3,他们的工作十分出色。

我认为,如果 AI 能从更深层次帮助人类认知我们的语言,帮助人们更好的进行沟通,并构建一个更和谐的社会,那将是极好的,比如基于机器学习的翻译技术。如果我们能实时准确地听懂不同的语言,我们离实现 RID 经常谈到的乌托邦应该也就不远了,而且私企在这方面有大量的数据和研究,如果能开放给学术机构,AI 研究可能又会更上一层楼。

RID:因为我是 Open AI 的董事,所以自然语言处理是我所涉及的领域,因此我认为未来 AI 领域的突破可能是在机器人技术或医疗领域方面,而李飞飞正是这两个领域的领军人物。

在机器人医疗领域有很多值得考虑的点,比如手术用机器人比人类医生的准确率和成功率都更高,诊断用 AI 也是,所以我觉得未来,从 “以人为本” 的角度出发而开发的 AI 技术将取得巨大进展。

Refrence:

[1]https://www.wsj.com/podcasts/tech-news-briefing/reid-hoffman-and-fei-fei-li-on-human-centered-ai-special-episode/5eb79c06-cfe7-435f-b0b2-7a17d1b20ed8

 

人工智能 技术 数据 医疗 算法 立法原则

推荐资讯