评论:是时候该应对AI与神经科技带来的伦理问题了

科技工作者之家 2017-11-09

20171109164324_cc0040.jpg

想象一下这样一种场景:一名瘫痪男子参加一项脑机接口的临床试验,他的大脑被植入一枚芯片,芯片与一台电脑相连。科学家训练该电脑来解读他用大脑预演动作所产生的神经信号。电脑生成的指令能移动一个机械臂。

有一天,这名男子对这个试验组感觉很不耐烦。他的机械臂夺过一位研究助理的杯子,把它捏碎了,还伤到了那位助理。他道了歉,说这肯定是因为脑机接口装置故障,但他不得不怀疑自己的不耐烦是否也在这起事故中起到了一定的作用。

这个场景是虚构的,但也说明了我们这个社会或许将要面对的一些挑战。

眼下,脑机接口技术主要聚焦于临床疗效,比如帮助有脊髓损伤的病人。

或许要再等上几年甚至数十年,脑机接口和其他神经技术才能成为我们日常生活的一部分。但科技的发展意味着我们正走在通往一个新世界的道路上,在这个世界里,我们可以解码人们的精神活动,直接操纵他们的意图、情感和决策背后的大脑活动机制;人们能直接通过思考和他人交流;强大的计算系统直接连接到人们的大脑上,帮助人类和世界交互,极大地增强他们的智能和体力。

这样的进步有望变革很多疾病的治疗,从脑损伤、瘫痪到癫痫和精神分裂,并能让人类拥有更好的生存体验。但这种科技也可能加剧社会不平等,给企业、黑客、政府或者其他任何人带来剥削和操控大众的新手段。这或将深远地影响人类的几个核心特征:私密的精神生活,个体能动性,以及对于人类是被身体束缚的实体的理解。

因此,现在就应该认真考虑这可能带来的后果。

2017年5月,美国国家科学基金会赞助在纽约哥伦比亚大学举办了一场研讨会,我们在会上讨论了神经技术和机器智能的伦理问题,认为现存的伦理规范对这个领域来说是不够的。

为了解决这一不足,科学家们就四个令人担忧的领域提出我们的建议:隐私权和知情同意权;能动性和身份;体智增强;以及偏见。不同宗教、种族和社会经济背景的国家和人民将有不同的需求和愿景。因此,各国政府必须建立自己的审议机构,协调社会各界代表进行公开讨论,并决定如何将这些指导方针纳入政策当中,包括具体的法律和法规。

今年早些时候,美国国防部高级研究计划局发起了一个叫做神经工程系统设计的项目,计划在四年内获取美国食品和药物管理局的批准,研发一种可以同时利用一百万个电极监测大脑活动并能选择性地刺激至多10万个神经元的人脑装置。

与此同时,谷歌、IBM、微软、脸谱、苹果和无数初创公司都在建造更加复杂精细的人工神经网络,这些神经网络在有明确定义的输入和输出的工作项目上,表现早已超过人类。

几乎可以肯定,当我们更进一步地理解了真实的神经网络是如何工作的之后,未来的神经网络甚至会比这些例子更加强大。

我们已经与机器紧密相连。今年,谷歌的研究人员计算出用户每年平均接触手机的次数接近100万次(数据未发表)。人类的大脑控制着听觉和视觉系统来解读声音和图像,然后命令肢体来持握和操纵我们的设备。然而,神经科技和人工智能的融合发展将会带来一些质的不同——人类大脑与机器智能直接连接,绕过大脑和身体正常的感觉运动功能。

在人工智能领域,IEEE标准协会在2016年4月创建了一个全球伦理倡议,目的是将伦理融入到所有人工智能和自主系统的设计流程中。

历史表明,在企业界,追逐利润往往会凌驾于社会责任之上。虽然在个人层面上,大多数技术专家的目的都是想要造福人类,但是他们仍有可能碰到自己未曾准备好要去面对的复杂伦理困境。我们认为,通过将相关伦理准则引入到工业界和学术界中来,可以改变业界普遍的思维模式,增强设备制造商的应对能力。

第一步就是让伦理成为工程师、其他技术开发人员和学术研究人员加入公司或实验室时的标准培训的一部分。教育员工更深入地思考如何追求科学进步,实施有望建设社会而非破坏社会的策略。

这种方法基本上遵循了医学专业正在使用的思路。医学生接受的教育包括病人病情保密、不伤害原则、行善原则和公正原则,他们还要遵守希波克拉底誓言,坚持这个职业的最高道德标准。

神经技术可能带来的临床效益和社会效益是巨大的。要想获得这些效益,我们必须尊重、保护和支持人性中最珍贵的品质,以此指导神经技术的发展。

来源:  Nature自然科研

神经

推荐资讯