把握人工智能时代下的国家安全治理

科技工作者之家 2018-11-21

  2018年10月31日,习近平总书记主持中央政治局第九次集体学习,研究人工智能发展现状和趋势。习近平总书记提出,加快发展新一代人工智能是我国赢得全球科技竞争主动权的重要战略抓手。同时,突出强调了要加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,进而维护好人民利益和国家安全,推动我国新一代人工智能健康发展。
  作为新一轮科技革命和产业变革的核心驱动力量,人工智能的快速发展在为社会提供强大发展动力和平台的同时,也将对国家安全治理造成一系列挑战。因而,如何维护人工智能时代下的国家安全治理,把控技术研发方向和解决相关法律法规、制度体系、伦理道德等衍生问题,也将成为未来人工智能发展的关键所在。
  人工智能或对国家安全治理形成重大挑战
  人工智能或将打破传统的国际战略对抗模式。2018年9月,美国布鲁金斯学会发布了《2020—2040年军事技术变化预测》,该报告认为未来战争的革命性技术变化可能只发生在计算机和机器人的部分领域,人工智能将从机器人、自主化和网络安全三方面形成新的军事优势。实际上,人工智能的军事化应用或将形成新的军事能力和战略博弈模式,进而实现战争形态的转变。同时,战争形态的转变也将导致原有的战略博弈结构失衡,并且这种由于技术而产生的失衡,很难通过战术博弈或数量叠层进行中和或弥补。显然,缺少人工智能技术辅助的国家将在战略判断、策略选择与执行效率等多方面处于绝对劣势,拥有方则将具有全面超越传统军事力量的能力,进而在对抗中占据新的技术制高点,国际主体间的力量鸿沟将更加难以跨越。此外,随着人工智能技术的成熟,人工智能军事化应用的成本和门槛将不断下降,其技术扩散所带来风险也将随之上升,进而也将对全球安全体系基础造成巨大的挑战。
  人工智能或将拉大国际行为主体的能力代差。人工智能产业的核心逻辑是通过自动化生产替代劳动力来提高生产效率,而这将对传统生产模式造成“创造性破坏”。一方面自动化生产将导致跨国企业将生产部门从发展中国家回迁,另一方面技术的高门槛将导致全球产业链进一步向价值链跃升,这就意味着人工智能技术或将大大减少发展中国家以承接发达国家产业转移的方式进入全球产业链的机会。同时,人工智能自身的“创新增压器”角色还使占据技术高地的国家形成一种自我增强的技术经济优势,进而掌握制定相关“游戏规则”的主导权以实现更多的超额性收益。根据清华大学发布的《中国人工智能发展报告2018》,截至2018年6月,发达国家在全球人工智能专利产出、人才投入等成果方面保持绝对的领先地位,其中美国在多数指标上仍具有绝对性的优势。可见,发展中国家的人工智能技术发展机遇期将会变得非常有限,那些技术条件和资本基础薄弱的国家甚至可能会丧失实质性的发展机会。
  人工智能或将使资本与技术获得“超级权力”。作为一种资本密集型和技术导向型的产业,人工智能的发展需要大量的资本投入和技术积累,这或将导致社会各产业间、群体间与阶层间的发展能力、资源占有程度与社会影响力方面的极大不对称。目前,几乎所有重要的人工智能领域的突破性成果都是出自谷歌、微软、IBM、亚马逊和苹果等大型公司所支持的研究平台,并且这些大型跨国公司本身对于全球人工智能的核心技术和顶尖人才具有极强的虹吸效应。这意味着它们或将成为人工智能时代的巨头企业,形成操纵全球产业结构与资金流向的垄断能力。此外,掌握人工智能关键技术的少数精英技术群体或将凭借知识和技术方面的不对称优势形成垄断高阶技术权力,如果对其缺少有效的引导、制约和监督,可能会出现技术滥用而危害社会安全,或成为资本权力的附庸而激化社会矛盾。
  人工智能或将导致社会治理面临新的挑战。人工智能通过产业革命实现对社会结构的大规模调整,进而从利益再分配、法律规范和伦理道德等多个层面对社会治理形成新的冲击。最为明显的便是人工智能技术的普及所导致的社会结构性失业,尤其是依靠重复性劳动的劳动密集型产业和依赖信息不对称而存在的部分服务业将遭受到“毁灭性打击”,而且技术进步下的职业极化也将拉大收入差距。根据麦肯锡2018年9月发布的《人工智能对全球经济影响的模拟计算》,重复性任务和少量数字技术为特征的岗位需求或从目前的40%下降到30%,其在工资总额中的占比或将从33%下降到20%。同时,由于人工智能在技术发展初期存在“索洛悖论”,即社会生产率的提升相对于人工智能带来的技术进步存在迟滞,并且劳动生产率的提升难以同步转化为人们收入的普遍增长和消费成本的普遍下降,甚至人工智能会成为资本挤压劳动力的工具。此外,由于目前仍未形成关于人工智能技术统一的法律法规和道德认知,这就使得难以对技术主体责任进行及时、合理的监管,社会伦理也难以对人工智能技术的发展形成有效的制约。
  人工智能或将加剧“技术恐怖”现象的发生。实际上,人工智能自身的技术自主性、高度复杂性和风险存续性或使其技术失控的可能性和破坏性更大。人工智能所具有“自我学习”能力使其能够在不需要人类控制或者监督的情况下,便能自主地完成某些任务。这意味着,如果人工智能跃升成具有“自主思维”的主体,形成了自身运行的“技术理性”,那就具备了脱离人类管控的能力。同时,人工智能算法的逻辑基础本身蕴含着不确定性,即人工智能技术基础隐藏着不可追溯性,其自身包含了很多不受控制的机制。例如,机器学习中使用的人工神经网络,在无人驾驶领域得到了广泛应用,尤其是用于图像识别,但原本无害的神经网络可能在遭受对抗样本(Adversarial Example)攻击后就会出现偏差,并且很难对其进行及时有效的调控。此外,犯罪分子通过人工智能的拓展使用将形成新型安全攻击,人工智能本身的技术漏洞也会使其增加被攻击利用的可能,进而或将加剧数字安全威胁的出现。
  如何把握人工智能时代下的国家安全治理
  在国家目标和利益的追求序列中,国家安全应是需要国家把握的核心问题,而人工智能技术发展浪潮必将导致国家安全格局的转变。为此,深入了解人工智能的本质内涵和系统意义,全面评估其对国家安全治理带来的机遇与挑战必将是行稳致远、角逐未来的重要砝码。笔者认为,在这一的过程中,我国需做到以下几点:
  一是完善战略布局以助推人工智能技术的发展。当前,我国已经出台了一系列指导人工智能发展的方针、政策,但对于人工智能可能带来产业变革、社会趋势及其相关风险的研判有所不足。因此,必须进一步完善人工智能的发展战略以把握国家安全治理,突出强调对人工智能核心技术的把控,并构建起自主可控、可持续发展的人工智能创新体系和产业体系,从而掌握人工智能创新发展的主动权。同时,人工智能技术的研发与应用,必须以社会经济发展水平和承载能力为限,即要完善人工智能的战略布局的同时也要着眼我国社会发展的现实需要,通过推动人工智能创新链与产业链之间的对接和完善落实相应的产业配套政策,为我国的产业转型升级和社会结构完善注入新动力。
  二是搭建技术风险的评估机制以强化风险把控。建立人工智能技术的风险评估机制就是要在综合技术发展状况、社会环境、伦理价值等因素的基础上,针对人工智能的社会风险进行综合的分析和考察,从而科学、全面、系统地反映人工智能技术风险的整体特征,为国家安全治理提供可靠的信息基础。因此,要构建人工智能技术风险评估的指标体系,成立权威的人工智能技术风险评估机构,并规范技术风险的评估程序。同时,也要完善人工智能技术的伦理评价机制,在追求人工智能发展的同时兼顾多方的利益考虑,从而努力做到提前识别和判断风险的负面效应,将其发展纳入安全且合理的运行轨道。此外,也要将评估机制贯穿于人工智能技术活动发展的全过程,针对人工智能发展各阶段所潜在的风险进行有效的评估,从而有的放矢地制定防范措施,逐步消解可能存在的风险。
  三是规范技术设计的价值向度以引导技术发展。人工智能技术本身是中性的,但要避免“技术的贪欲”带来的不良后果。为此,必须要规范人工智能发展的技术伦理和价值取向,从思想源头上增强对人工智能技术风险的预警能力和社会控制能力,实现技术与人性之间的平衡。同时,要推动公众对人工智能及其相关社会风险的了解,引导人们建立新型的、理性的、全面的技术风险认知观,促使公众用更为理性、长远的眼光来看待人工智能的发展。另外,要加强技术伦理规范性和建构性的统一,在技术设计中嵌入道德要素,通过恰当的技术设计规范和制约实现正面伦理价值的“预防式置入”,进而提高人工智能技术研发主体的自觉性。此外,要努力贯彻“以人为本”的技术发展观,加强人工智能技术人员与社会人文学者的交流,促进科学与人文两种精神的充分融合与互补,以实现人工智能的人性化转向。
  四是构建社会治理新型框架以承接技术更新。在人工智能的发展过程中,需要构建相应的社会治理机制和路径,及时主动地应对人工智能技术进步可能造成的负面影响,进而为人工智能的持续发展创造一个良好的支持环境。为此,要与时俱进地制定并完善与人工智能相关的政策和法律,增强技术风险决策和立法的针对性与可操作性。同时,明确设计者、使用者、监管者之间的权责关系,形成“行为—主体—归责”的风险归责体系,进而解决精细分工下的“有组织不负责任”的机制问题。此外,搭建起连接“行动者网络”和“利益相关者”的讨论与合作的新平台,努力创造一个政府、技术专家、公众等多元一体化的治理决策参与机制,从而促进国家安全治理的科学化和民主化。
  五是加强全球合作以提升技术风险管控效能。人工智能将在未来产业革命中占据重要地位,而这次产业革命将更具全球性、互联性。因此,应对人工智能可能带来的技术风险需要全球共同治理。首先,要围绕应对全球共同挑战和构建人类命运共同体,加快适应全球化发展和国际竞争合作新趋势,强调合作与共享对人工智能技术风险管控的作用。同时,推动以主权国家、非政府组织、市民社会和跨国公司为主体的综合治理体系的形成,进而将全球分散的、相对孤立的治理程序和要素进行资源整合,形成具有国际认同的人工智能技术风险的治理框架和协调一致的治理行动机制。此外,加快推进人工智能技术风险的信息平台建设,建立人工智能技术风险评估与管理工作的数据库,并以此为基础形成国际风险预警机制,加强对国际性技术风险事故的防范能力。

 

 


内容来源:学习时报

来源:科协企业创新中心

原文链接:http://news.scei.org.cn/art.php?aid=639362

版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。

电话:(010)86409582

邮箱:kejie@scimall.org.cn

技术风险

推荐资讯