3.监管方法
监管是一个备受争议的概念,它包含的不只是单纯的“规则”。一篇权威文章(Baldwin et al.,2011,p.3)区分了三种不同的监管模式,这些模式对考虑可用的监管选项很有帮助。首先,监管可能意味着一套特定的命令,即由专门负责此项事务的机构履行的具有约束力的义务。其次,它可以指代更广泛的国家影响力,包括财政和其他激励措施。最后,更广泛的是,监管有时会用来表示所有形式的社会或经济劝诫手段,包括市场力量。“智能监管”的概念不仅适用于国家机构履行的监管职能,也适用于专业协会、标准制定机构和倡导团体。在大多数情况下,相比于单一监管机构的狭隘关注范围,多种工具和一系列监管机构共同发挥作用能产生更好的效果(Guihot et al.,2017;Gunningham and Grabosky,1998)。而且,这些不同的监管模式可以相互作用、彼此影响。例如,一个行业可能会投入资源进行自我监管,因为担心不这样做会导致政府采取更强制性的监管手段。
监管并非仅限于约束或禁止不良行为;它还可以促进积极的活动,即“绿灯”式而不是“红灯”式监管(Harlow and Rawlings,2009,pp.1-48)。例如,“响应式监管”主张建立更具合作性的关系,鼓励受监管方遵守法律的目标,而不是仅仅依循规则行事(Ayres and Braithwaite,1992)。其他方法则强调效率。譬如,基于风险和以问题为中心的监管方法寻求优先处理最重要的问题;不过,未来风险和当前问题的识别、选择和优先顺序,既涉及不确定性,也涉及规范性和政治性选择(Baldwin and Black,2016)。
监管机构可用的工具同样可分为三类:传统的规则制定、法院或法庭的裁决,以及非正式指导,包括标准、解释性指南以及与监管活动相关的公开和私人沟通。吴修铭(Tim Wu,2011)曾颇具争议地建议,对于正在经历快速变化的行业,监管机构应考虑通过发出“威胁”,即非正式地要求相关方遵守规定,同时暗示可能会进行正规化和强制实施,从而将第三类工具与前两类联系起来。
许多关于人工智能监管的讨论都会列举可用的选项(比如浮动比例、金字塔模式、工具箱模式等),但这些应用往往要么过于笼统,要么过于具体。显然,将一种监管方法应用于所有受人工智能影响的活动并不合适。然而,为每一项活动制定专门的法律也不切实际。好在,通过区分与人工智能相关的三类问题,或许可以在一定程度上明晰思路,这三类问题是:管理风险,禁止某些行为,以及确保遵循恰当的程序。
3.1管理风险
民事责任提供了一种分配风险责任的手段,特别是在可以进行成本收益分析的领域。这将涵盖私人部门的大多数(甚或绝大多数)人工智能活动:从交通运输到医疗设备,从智能家居应用到认知增强和植入。这里的问题并非制定新规则,而是如何应用或调整现有规则,从而适应以空前速度运作、自主性不断增强且具有不同透明度的技术。为此,我们可能需要设定最低透明度要求,以确保人工智能系统能够被识别,有害行为能够合理地归责于人工智能系统的所有者、运营商或制造商。强制性保险或能更有效地分散这些风险,但基本原则应保持不变。
对于适用成本收益分析但难以确定潜在风险的那些情况,“监管沙盒”允许新技术在受控环境内进行测试。虽然一些司法辖区已经将此应用于实体技术,例如,为自动驾驶汽车指定区域,但这种方法尤其适合在线运行的人工智能系统。虚拟沙盒起源于计算机科学,它允许软件在错误或漏洞导致的潜在损害受到限制的情况下运行。尽管沙盒不同于瑞安·卡洛(Ryan Calo,2011)曾经主张的对机器人研究至关重要的豁免权,但它为测试创新产品提供了“安全空间”,且不会立即引发所有的常规监管后果。这种技术最常用于金融技术(或称“金融科技”)领域,它使创业者能够与真实客户一起测试其产品,减少监管约束,降低面临执法行动的风险,还能获得监管机构的持续指导(Fenwick et al.,2017,pp.591-593;Zetzsche et al.,2017,p.45)。这一做法由英国于2016年首创,被认为让伦敦在金融科技领域占据了先发优势,此后,世界其他司法辖区纷纷效仿(Allen,2019,p.580)。
3.2划定红线
然而,在某些情况下,需要划定“允许”和“不允许”的界限。对于某些情形,这些红线将不仅仅是简单地把现有规则应用于人工智能。与维持人类控制的伦理原则相关联,一道明显的候选红线就是禁止人工智能在使用致命武器方面做出决定。
不过,即便这种看似明确的禁令,在更仔细的推敲下也会变得模糊。如果机器能够在前期阶段做出所有选择:扫描和导航环境、识别和选定目标、提议攻击的角度和方式,那么最终的决定可能也只会由机器完成。在这种情况下,自动化偏向(automation bias)使得默认选择更容易被接受。这不是反对这项禁令的理由,而是支持如下观点:不仅要确保至少有人类处于决策环节之中或者能对决策环节进行监督,而且要确保人类明白自己必须对做出的决定承担责任。这是人类控制原则与可问责原则之间的联系,也就是说,不是让人类保持控制权且让机器承担责任,而是人类(和其他法人)要继续对自身的行为负责,即使该行为是由机器或通过机器来实施的。
欧盟的《人工智能法案(草案)》还寻求禁止人工智能的某些应用,特别是实时生物识别监控、操纵或利用个人的技术以及社会评分[AI Act(EU),2021]。
需要制定新规则的一个具体领域涉及人类与人工智能系统的互动。然而,这里真正的挑战并非制定新法律来保护我们免受人工智能系统的侵害,而是保护它们免受我们人类的伤害。例如2017年初,新加坡通过了一些法律,规定干扰自动驾驶汽车实验属于违法行为。这些法律更适合被视作与此类技术相关的风险管理的延伸。更棘手的将是与人类针对机器而采取的行为相关的法律。譬如,当前,折磨黑猩猩是犯罪,但折磨电脑不是。随着社交机器人在养老、性服务等行业变得越来越普遍,或许有必要对可以创造什么样的机器人,以及如何使用、是否滥用这些创造物予以规范。
例如,2014年罗纳德·阿金(Ronald Arkin)提出,可以使用儿童性爱机器人来治疗恋童癖者,就像使用美沙酮治疗海洛因成瘾者一样,这引发了争议(Hill,2014)。尽管不同司法辖区对模拟色情制品的处理方式各异(*通常,涉及错误行为(如虐待儿童或暴力行为)的图像是被禁止的。问题在于,模拟本身是不是错误行为。例如,美国最高法院否决了1996年《儿童色情预防法案》中的部分条款,这些条款将“没有记录犯罪行为,其制作过程也没有产生受害者”的“言论”定为犯罪。),但如今很多地方已经通过对现行法律进行创造性解读或颁布新法律[比如美国的《限制电子性爱机器人法案》(CREEPER)],禁止了这类设备的制造和使用(Danaher,2019)。
随着逼真的实体机器人变得越来越普遍,并在社会中日益发挥积极的作用,保护它们将成为必要,这不仅仅是为了降低故障风险,还因为伤害它们的行为本身可能会被视为一种罪恶。开始时,与之最接近的类比应该是反虐待动物法。可以说,这是机器人谬误的另一种体现,譬如,购买一个逼真的机器人然后将其点燃,会比删除它的操作系统更令人感到痛苦。然而,在未来,人工智能系统感知疼痛并理解自身不存在前景的能力可能会改变这种考量(Anshar and Williams,2021;Ashrafian,2017)。
这就提出了一个问题,即对于可能带来自我意识或有时被认为会对人类生存构成威胁的超级人工智能研究,是否应该设定红线(Bostrom,2014)。尽管许多专家主张对通用人工智能的前景持谨慎态度,但几乎没有人呼吁停止该领域的研究;直到2023年3月,生命未来研究所发布了一封由埃隆·马斯克等人签署的公开信,呼吁暂停开发“比GPT-4更强大”的、以大型语言模型形式呈现的生成式人工智能,暂停期限为6个月(Pause Giant AI Experiments:An Open Letter,2023);这里的GPT-4指的是OpenAI开发的生成式预训练转换器(GPT)聊天机器人。这封信受到了广泛关注,但似乎不太可能真的导致研究暂停。值得注意的是,没有哪个政府实施过这种暂停举措,尽管意大利由于担心ChatGPT使用个人数据而确实禁止了它(Satariano,2023);此外中国宣布限制类似的技术,如果它有可能扰乱社会和政治秩序(中国于2023年5月发布《生成式人工智能服务管理办法》)。
正如博斯特罗姆和其他人警告的,有一个风险不容忽视,即试图遏制或阻碍通用人工智能的做法可能会引发它们原本想要避免的威胁。采取预防原则或能阻止通用人工智能发展到具有强大威胁的地步。然而,通用人工智能似乎远远不及我们目前的能力,所以如果当下实施这类举措,那将是一种过激反应。无论如何,一个司法辖区实施的禁令在另一个司法辖区可能不具有约束力。倘若没有国际条约,没有具备管理能力的相应机构,单方面的禁令终将是无效的(Chesterman,2021)。
3.3外包限制
对外包给人工智能的决策施加限制,是一个既有必要制定新规则又可行的领域。一种方法是限制将人工智能用于固有的政府职能。不时有人呼吁禁止政府使用算法,这通常是在回应公共部门决策中实际或被察觉的失误。这类失误包括澳大利亚(Doran,2020)和荷兰(Government’s Fraud Algorithm SyRI Breaks Human Rights,Privacy Law,2020)宣称能够识别福利欺诈的自动化程序丑闻,以及英国在新冠疫情期间发生的大学录取风波(Satariano,2020)。
其他司法辖区已经禁止公共机构使用特定应用程序,比如人脸识别程序。2019年,美国旧金山因禁止警察和其他机构使用人脸识别技术登上了新闻头条,美国多个城市以及加利福尼亚州效仿了这一举措,但没有推广到联邦层面。与数据保护的情况一样,美国政府迄今为止都未颁布广泛适用的法规(尽管做过多次尝试)。欧洲最初主要将这个问题视为《通用数据保护条例》的应用来处理,随后又把禁止公共场所进行实时远程生物识别纳入《人工智能法案(草案)》。而中国在人脸识别方面的限制要少得多,不过政府已经认识到需要提供更多的指导,而且至少出现过一起诉讼(但并未成功)(Lee,2020)。
完全禁止算法并无必要,尤其是因为任何关于算法的定义可能都会涵盖算术和其他不涉及自由裁量的基本运算功能。更重要的是,这种做法误判了问题所在。问题的关键不是机器在做决策,而是人类放弃对决策应负的责任。公共部门行使政府固有职能的决策之所以合法,不是因为这些决策一定正确,而是因为它们能够通过政治或其他程序被追究责任。
这些担忧引发了本文开头探讨的两项原则中的第一项:人类控制和透明度。关于对公共部门的人工智能进行监管,一种更现实且可推广的方法是,在公共部门决策过程中逐步强化有关人类控制和透明度的规定。加拿大的《行政决策透明度规定》(Directive on Automated Decision-Making,2019)就是早期的一个例子。新西兰的《算法宪章》也采用了类似的方法。这一《算法宪章》由二十多个政府机构签署,其中包含一个矩阵,根据对“民众福祉”影响的概率和严重程度,从可选择执行变为强制执行。在诸多规定中,《算法宪章》的强制适用要求“人类监督”,包括公众质询的联系点、对决策提出申诉的途径,以及“清晰解释人类在基于算法的决策中发挥的作用”。《算法宪章》还包含了比可解释性概念更多的透明度规定,譬如要求用通俗易懂的英语记录算法的内容,并公布有关数据收集、保护和存储的信息。
这些举措很重要,但终究还是不够的。对于这类公共部门决策,并非像《算法宪章》所说的那样,仅仅是一个在利用算法的力量与维护公民的信任、信心之间达成“适当平衡”的问题。一个更基本的做法是确保我们有相应的手段或机制在这类公共部门决策违犯法律时从法律上质疑它们,而且还可通过确认公众信任的职位由人类决策者担任,并经由民主程序问责他们的行为或不作为,从政治上质疑这些决策。
欧盟的《人工智能法案》是对这一领域进行监管的最雄心勃勃的尝试之一,在撰写本文时,这份法案仍备受争议。如文本所示,该法案采用了宽泛的人工智能定义,适用于除军事领域之外的所有部门。法案旨在成为一部通用法律,提供适用所有应用场景的基本规则,在敏感领域(如医疗部门)可能会有更严格的义务要求。它还根据风险指数对人工智能应用进行分类:低风险应用基本不受监管,至于中高风险应用,则会逐步提高其在投放市场前进行评估的要求。如前所述,某些应用程序将被完全禁止。
乐观主义者希望《人工智能法案》能产生“布鲁塞尔效应”,并塑造全球人工智能政策,就像欧盟的《通用数据保护条例》影响了众多司法辖区的数据保护法那样(Siegmann and Anderljung,2022)。批评人士则强调,该法案的潜在适用范围太过广泛,涉及的技术五花八门,且其中一些关键禁令比较模糊,譬如推荐算法和社交媒体推送是否会被视为“具有操纵性”就语焉不详(Veale and Zuiderveen Borgesius,2021)。另有人阐述了通用人工智能的风险和进行监管的必要性,以及前文讨论过的大型语言模型引发的种种担忧(Gebru et al.,2023)。
评论区 0
本篇文章暂无评论