*西蒙·切斯特曼Simon Chesterman(中文名又译陈西文,后文评论文章中均用“陈西文”),新加坡国立大学David Marshall讲席教授、副校长(教务创新)、新加坡国立大学学院(NUS College)创院院长,主要研究领域为人工智能法律和政策、数据保护和隐私、国际法、国际组织和全球治理等。
*本文大量参考了陈西文发表的文章《从伦理到法律:为何、何时以及如何监管人工智能》[载于David J.Gunkel(主编)的《人工智能伦理手册》(Cheltenham:Edward Elgar,2024),第113—127页]。
大约一个世纪前,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov,1942)设想了一个未来:机器人成为日常生活中不可或缺的一部分。后来他回忆说(1982,pp.9-10),当时大多数机器人故事都可以归为两种类型。第一种是“机器人威胁”类型:这类科技创新故事遵循《弗兰肯斯坦》的传统,即机器人奋起反抗它们的创造者,但其渊源至少可以追溯到希腊神话里的普罗米修斯,这正是玛丽·雪莱(Mary Shelley)1818年小说的副标题。第二种类型是不太常见的“机器人悲情”故事,即这些可爱的创造物被残忍的人类主人当作奴隶对待。这些故事构成了道德寓言,警示的并非人类创造物带来的威胁,而是人类自身制造了危险。
阿西莫夫的贡献在于开创了第三种类型:将机器人看作工程师制造的工业产品。在他的科幻世界里,道德中立的机器人以三条操作指令或定律的形式内置了一种安全装置。第一条定律是,机器人不得伤害人类,也不得坐视人类受到伤害。第二,机器人必须服从人类下达的命令,除非该命令与第一条定律相冲突。第三,机器人必须保护自身的存在,除非这与第一条或第二条定律相冲突。
这三条定律是有关监管新技术的文献中的常见主题,但就像图灵测试一样,它们更多是一种文化试金石,而不是严肃的科学提案(Anderson,2008)。此外,这些定律假设只需要处理具有人类智能水平的实体机器人,这其实是“机器人谬误”(android fallacy)的一个示例。更有人批评这三条定律将责任强加于技术本身而不是创造技术的人(Balkin,2017)。此处值得一提的是,阿西莫夫提出的定律并非国家强制执行的“法律”。确切地说,这些定律被编码进了他虚构的创造物的正电子脑(positronic brains)中:是限定机器人能做什么,而不是规定它们应该做什么。
更重要的是,就目前而言,认为相关伦理原则可以精简成短短几十字,或者认为这些文字能够以某种人工智能系统可以解读的方式进行编码的想法,误解了伦理和法律的本质。尽管如此,2007年有报道称,韩国曾考虑将这些定律作为拟议的“机器人伦理宪章”的基础。这是自21世纪初以来为规范机器人或人工智能而进行的诸多尝试之一;在2004年于意大利圣雷莫举行首届机器人伦理国际研讨会之后,此类尝试加快了步伐。2006年,欧洲机器人学研究网络制定了《机器人伦理学路线图》;2010年,在一次由两个英国研究协会举办的“机器人务虚会”上,第一套跨学科的机器人原则获得通过。
特别是,自2016年以来,聚焦人工智能的指南、框架和原则大量涌现。其中一些是各类会议或行业组织的成果,譬如人工智能合作组织(*Partnership on AI,该组织为一家非营利性机构,由谷歌、Meta、IBM、亚马逊和微软于2016年共同成立。——编者注)的“人工智能相关原则”(Tenets)(2016)、生命未来研究所的《阿西洛马人工智能原则》(2017)、北京智源人工智能研究院的《人工智能北京共识》(2019),以及电气电子工程师学会(IEEE)的《人工智能设计的伦理原则》(2019)。其他一些则是由个别公司起草,包括微软的《负责任的人工智能原则》、IBM(国际商业机器公司)的《信任与透明度原则》和谷歌的《人工智能原则》,这些原则均在2018年上半年发布。
在推行管理人工智能的法律方面,各国政府进展缓慢。不过,若干国家已经制定了相对宽松的规范,包括新加坡的《人工智能治理框架》(2019)、澳大利亚的《人工智能伦理原则》(2019)、中国的《新一代人工智能治理原则》(2019)和新西兰的《算法宪章》(2020)。在国际层面,七国集团(G7)通过了《沙勒沃伊人工智能未来共同愿景》(2018),经合组织(OECD)发布了《关于人工智能的建议书》(2019),欧盟发布了《可信赖人工智能伦理准则》(2019),该准则是2021年推行的《人工智能法案》的前身。联合国系统的各个部门也通过了相关文件,其中最突出的是教科文组织的《人工智能伦理问题建议书》(2021)。甚至连教皇也在《人工智能伦理罗马倡议》(2020)中支持了一系列原则。
这些文件最引人注目的是,对于应该管控人工智能的规范,人们已经形成重叠的共识(Fjeld et al.,2020;Hagendorff,2020;Jobin et al.,2019)。尽管措辞和重点或有不同,但自2018年以来撰写的所有这类文件几乎都包含了以下六个主题的变体:
1.人类控制:人工智能应该增强而不是降低人类的潜力,并保持在人类的控制之下。
2.透明度:人工智能系统应该能够被理解,它们的决定应该能够被解释。
3.安全性:人工智能系统应按预期运行,并能抵御黑客攻击。
4.可问责:尽管通常没有明确规定,但呼吁可问责或负责任的人工智能,就假定或意味着当人工智能造成伤害时,应提供补救措施。
5.非歧视:人工智能系统应具有包容性和公平性,避免出现不当的偏见。
6.隐私:鉴于人工智能很大程度上依赖于对数据(包括个人数据)的获取,隐私或个人数据保护通常被强调为一项需要保障的特定权利。
其他概念还包括,开发和部署人工智能系统的相关人员需要具备专业责任感,人工智能需要促进人类价值观或者是“有益的”(Luciano et al.,2018,pp.696-697)。从这种笼统的层面来看,这些概念相当于呼吁坚守一般的伦理道德,尤其是遵从人类控制原则。一些文件呼吁要以可持续的方式开发人工智能,公平分配其带来的收益,不过这些内容更适用于探讨人工智能的部署方式,而非它应该或不应该具有何种能力。
上述六项原则似乎都没有争议。然而,尽管人们投入了大量时间和精力召开研讨会和务虚会以起草各种文件,但关于这些原则在实践中的意义以及如何执行,相应的研究还比较少。这一点有时也得到明确的承认和回应,理由是这些文件旨在适用于尚不可知的技术,并解决尚未预见的问题。
另一个问题揭示了更具启发性的答案,即这些原则是否确有必要。对可问责、非歧视和隐私的呼吁,本质上等同于要求那些制造或使用人工智能系统的人遵守大多数司法辖区已经制定的法律。安全性要求让人想到产品责任的问题,此外还涉及采取合理的网络安全防范措施。透明度本身并不是伦理原则,而是理解和评估行为的先决条件(Turilli and Floridi,2009)。然而,这些再加上人类控制原则,有可能对人工智能系统开发构成某种潜在限制,并超出现有法律的范畴。
本文不准备再行增加层出不穷的原则,而是将焦点移离监管人工智能需要哪些新规则的问题,继而探讨三个问题:为什么需要监管;何时改变监管结构(包括规则);如何将这一切付诸实施。
1.监管还是不监管?
理论上,政府监管各类活动是为了解决市场失灵问题,或者支持社会政策或其他政策。在实践中,考虑到他们与行业的关系和政治利益,政客可能会不按原则行动或者不行动(Baldwin et al.,2011,pp.15-24)。尽管大型科技公司与政府之间的麻烦关系有据可查(Alfonsi,2019),但本节将假设监管机构是善意的,并概述与其选择相关的因素。
在人工智能系统的背景下,对市场实行监管的理由包括:解决技术生产者和消费者之间的信息不足问题,以及保护第三方免受外部性的影响(外部性是指部署人工智能可能带来的危害)。以自动驾驶汽车为例,大家看到,责任已经从驾驶员转移到了制造商,后者可能有义务维持足够的保险水平。这为依据现有产品责任法,对其他一些人工智能系统,尤其是更普遍的运输工具(包括无人机)和医疗设备造成的损害追究民事责任提供了样板(Mondello,2022)。
然而,监管并不仅仅是为了促进市场发展,它还可以捍卫权利或推动社会政策的实施,在某些情况下,这会产生额外成本(Prosser,2006)。这些理由表明了限制人工智能的道德论据。以偏见为例,种族或性别歧视应当被禁止,即便从其他某些衡量标准来看这种歧视是“有效率的”。同样,人工智能系统不得在武装冲突中做出杀戮决定的禁令也不能随便用人工智能系统比人类更能遵守武装冲突法,因此它将带来更好的结果这种功利主义理由来辩驳。相反,这项禁令源于一种判定,即道德要求一个人为这类选择承担责任(Chesterman,2020)。
限制将职能外包给人工智能还有其他一些原因,比如在公共决策方面,其合法性既取决于决策结果,也取决于决策过程。人们认为,即使人工智能系统能够做出优于政客和法官的决断,但影响个人权利和义务的政府职能还是应该由可以通过政治或宪法机制问责的官员来承担。
管控人工智能还有一个程序性理由。例如,透明度是有效监管的必要前提。虽然它并非万能良方,且会带来额外成本,但是,只有达到最低透明度和决策可解释性的要求,监督和问责方能实现。
尽管如此,倘若监管某个领域会抑制创新、施加不必要的负担,或者以其他方式扭曲市场,政府也可能有充分理由不予监管(Auld et al.,2022;Ugur,2013)。不同的政治群体会对这些因素进行不同的权衡,但有趣的是,人工智能监管似乎与很多司法辖区采用的数据保护法相一致。例如,美国基本上遵循了以市场导向的方法,在50个州进行相对宽松的行业监管和试验。数据保护方面也是如此,虽然缺乏一般性的联邦法律,但特定的利益群体和部门,如儿童隐私或金融机构受到法律法规的制约。至于人工智能,美国国家科学技术委员会反对广泛监管人工智能研究或实践。如果监管措施可能增加合规成本或减缓创新,委员会就会呼吁在不损害安全或市场公平的前提下放松监管(Prepa-ring for the Future of AI,2016,p.17)。
在欧盟颁布《通用数据保护条例》(GDPR)6个月后,推进上述立场的文件最终定稿,其中赋予监管机构广泛的新权力,包括对数据保护和数据自动处理的监管。多年来,欧盟的做法始终以人权优先,二战后隐私权被确立为一项权利,为1995年的《数据保护指令》和后来的《通用数据保护条例》奠定了基础。人权也是欧盟考虑人工智能时的一个重要主题(EU White Paper on AI,2020,p.10),不过,偶尔会有人抱怨这削弱了欧洲大陆的竞争力(Justo-Hanani,2022;Pehrsson,2016)。
中国则提供了不同的模式:政府扮演重要的角色,对市场或个人权利关注相对较少。与数据保护一样,其中一个主要驱动力是主权问题。在数据保护方面,这体现为呼吁数据本地化,中国再次提供了不同的模式,让国家发挥强有力的作用。例如,数据本地化强调了确保国家能够适当访问数据的重要性(Chander and Lê,2015;Liu,2020;Selby,2017)。至于人工智能,中国在2006年将它确定为一个重要发展目标,又于2016年将它列入国家优先发展事项。2017年国务院发布的《新一代人工智能发展规划》强调市场的作用,但也设定了2025年的目标,即“人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平”;并于同年预测将“初步建立人工智能法律法规、伦理规范和政策体系”(《国务院关于印发新一代人工智能发展规划的通知》,2017)。
许多人都对中国缺乏监管的状况感到疑惑,还通常认为它对个人数据相对宽松的监管给人工智能领域带来了巨大优势(Roberts et al.,2021)。然而,中国在2021年和2022年通过的法律纳入了与欧盟和国际组织秉持的原则密切相符的规范(Hine and Floridi,2022;Yang and Yao,2022)。更一般地说,这些关于未来监管的规划表明,对于新兴技术,真正的根本问题并非是否要进行监管,而是何时进行监管。
评论区 0
本篇文章暂无评论