薛澜教授谈人工智能治理的挑战与前景

2020年12月24日

  薛澜,全球化智库(CCG)学术委员会专家,清华大学苏世民书院院长。


2020年12月18 日,由清华大学人工智能国际治理研究院(I-AIIG)主办,联合国开发计划署(UNDP)作为国际支持机构的清华大学人工智能合作与治理国际论坛在北京召开。论坛采用线上与线下结合的形式,探讨人工智能合作与治理的机遇与挑战。清华大学人工智能国际治理研究院院长薛澜教授发表题为《人工智能治理:挑战与展望》的主旨演讲,围绕人工智能的福利与风险、人工智能治理的挑战、以及人工智能治理的前景三个方面展开阐述。

在会上,薛澜教授强调了人工智能国际治理的重要性。人工智能技术对整个人类发展有非常长远的影响,其好处和风险都非常明显,因此国际合作特别重要。人工智能的发展本身就是一部国际合作的历史。在中美两国的人工智能论文发表中,国际合作的比例非常之高。人工智能如果应用到军事领域,可能对全球有毁灭性的影响,这方面没有任何一个国家能够单独解决。薛教授指出,尤其要注意一些极端组织可能利用人工智能技术,对主权国家产生威胁。

薛澜教授认为,应对这些挑战需要在基本共识的基础上,建立全球性的治理平台,协调人工智能未来发展面临的紧迫问题。国际社会要积极吸取在核武器、空间法、以及气候治理等领域积累的许多经验和教训,建立基本的价值共识,尊重各国经济、社会、政治和文化的差异。除了自然科学研究,国际社会要加强人工智能社会影响及其治理的合作研究,引导人工智能健康发展,造福人类美好未来。

 

以下是薛澜教授发言全文:

各位嘉宾,大家好!非常高兴今天有这个机会来跟大家讨论人工智能治理面临的挑战。

首先,我谈谈人工智能给人类社会带来的收益和风险。目前,我们经常能看到一些被广泛应用的简单机器人,比如在酒店服务的应用,特别是在抗疫中也被广泛运用。从图片中我们可以看到,人工智能在图像识别的能力可以用来对一些癌症进行判断。此外,还有一些比较复杂的人工智能运用场景,比如重庆市正在推进一个被称为“云谷”的项目,实际上是利用人工智能和物联网实现智慧社区。这是较为复杂的应用。人们还将人工智能运用于科学发现,最近在生命科学领域有一些具体应用,例如AlphaFold在解析蛋白质结构方面的突破性进展,这是更加复杂的运用场景。由此,我们可以看到人工智能的运用不断演进,从简单到复杂的一个应用过程。

人工智能给我们带来诸多社会收益的同时,也会产生一些大家都非常关注的风险。一类是算法歧视的问题。最近的研究发现美国一些医院在利用人工智能筛选病例,判断是否收治病人住院。但由于算法的问题,在这个过程中有比较明显的种族歧视,在同样病情的情况下,对黑人的病症判断得更轻,从而更容易被拒绝住院。二是安全的问题。在自动驾驶领域,如果数据质量不高,自动驾驶系统产生失误,无法识别前面的障碍物,导致事故。这样的情况发生后,责任分配的问题也值得研究。三是隐私的问题。比如人脸识别可能引起侵犯个人隐私的问题,也可能带来歧视的问题,国内最近讨论得比较多。四是社会影响。其中一个问题是人工智能替代就业岗位的问题,最新的研究显示,2020年至2025年有相当一部分的工作将被人工智能相关技术所替代。MIT一位教授去年发表一篇文章,对比分析了人工智能和信息技术创造就业和消除就业的两个指数,这篇文章发现消除就业的指数其实更高,从长远看人工智能对就业的影响的确值得我们高度关注。另外一个问题是“信息茧房”的问题,信息推送可以给人们带来方便,不需要再主动寻找各种各样的信息,算法根据我们的偏好把我们需要的信息都能推送过来。但这样潜在的后果是,我们之前相信什么,会接受到更多相关的信息,导致我们越来越相信,这个过程是否会将我们的观点和社会认知更加极化?这些问题值得进一步关注和考虑。

其次,我谈谈人工智能治理所需要的基本规则、政策和机制。人工智能治理的目标是保证人工智能发展能够造福于人类,实现技术向善。第一,人工智能治理还处于不断发展演变的过程中,是一个还未成熟的领域。人工智能本身就有不同定义,比如我们在编写人工智能伦理指引时,发现不同机构对人工智能的基本定义不完全一样。另外,人工智能还具有黑箱特征,其算法机理还有无法解释的内容,其社会影响或可能产生的风险存在不确定性。第二,人工智能治理包含价值、机制、参与者、对象和效果等要素。价值观是非常重要的一个要素,应明确发展人工智能技术时应坚持哪些基本价值观。机制是指通过何种制度体系来实现有效的治理。参与者即指实现人工智能治理需要哪些参与者,可能包括个人、组织和国家。治理的对象可能涉及企业的行为,可能涉及使用者的行为。最后一个要素就是效果,即以何种方式评价治理的效果。第三,人工智能治理存在机制复合体现象。机制复合体的现象是指在全球治理过程中,针对同一类问题,有不同的治理机制并存。这些治理机制之间有重叠,也有观点和价值的冲突,彼此也没有上下级关系,此时如何协调不同治理机制是一个很大的挑战。人工智能治理也呈现出此类现象,需要我们进一步探讨。第四,人工智能治理涉及技术、社会和结果等维度。正如姚期智先生和张钹先生演讲中所提到的,人工智能治理面临很多挑战,其实很多挑战可以通过技术来解决,包括解决安全、标准、基础架构等问题。社会层面主要涉及伦理问题,通过设定规则来影响人工智能的发展和应用。在结果维度上,重点是解决负面效果,包括隐私、安全、歧视、贫富差距等问题。

再次,我谈谈人工智能治理的挑战。第一,规制人工智能面临困境。人工智能治理面临的一个最大挑战就是发展得太快,然而治理体系作为社会系统的一部分,其发展演变是缓慢的,从而产生步伐不一致的情况。我们担心这种步伐不一致的情况将进一步加剧,去年我们人工智能治理委员会提出了八条治理原则,最后一条是敏捷治理,就是要改变原来传统的治理模式。传统的模式需要经过诸多政策制定程序,现在这种模式的确赶不上技术的变革,因此需要在不是那样完整的政策制定过程条件下及时出台政策,引导技术发展。第二,公共部门的矛盾角色。人工智能技术可以在公共部门中被广泛应用,而公共部门自己也可能存在滥用情形。另外公共部门在应用人工智能的过程中面临各种风险,也面临各种挑战。第三,推动企业负责任创新。企业是最活跃的主体,会与政府在治理过程中进行博弈,需要企业自律,包括如何与公众和社会实现更好的交流。

此外,我想特别谈一下人工智能为何需要国际治理。人工智能对我们整个人类未来发展有长远的影响,过去人工智能的发展就是一部国际合作的历史,我们对人工智能领域中中国与美国的学者合作的情况进行过分析,中美合作的研究成果占到比较大的比重,大量的国际合作是人工智能能够发展到今天的非常重要的因素,今后还需要继续合作。但另外一方面,人工智能也有可能给我们带来重大风险,如傅莹大使在演讲中提到了人工智能也可能带来毁灭性的影响,比如产生大规模的自主杀伤性武器。任何一个国家都无法单独解决此类问题。无法判断某些组织能够发展此类技术,对各个主权国家产生威胁,因此就需要各个国家应该求同存异,共同应对此类问题,找到解决办法。

最后,我们需要在过去研究探讨的基础上探索建立一个全球性的平台或机制,协调人工智能未来发展面临的紧迫的问题。第一,我们可以学习一些过往的机制,包括核技术的治理机制、空间法、气候变化治理机制等。第二,加强人工智能研究领域的国际合作,不仅包括科学研究的技术开发领域的合作,也包括社会和伦理方面的合作。正如傅大使提到的清华大学与布鲁金斯学会的合作就是一个非常好的典范,在这种合作中找到共同点,包括共同的价值观念、共同的治理原则,还有一些差异。根据这些异同点,不断探讨和沟通,最后找到共同的准则,引导人工智能健康发展,最终为全人类造福。

文章选自微信公众号“清华大学苏世民书院”,2020年12月24日

关键词 薛澜