试论生成式人工智能侵权的责任主体---以ChatGPT为例
一、问题提出
作为讨论规范治理的逻辑起点,法律主体资格是指在法律关系中享有权利、履行义务、承担责任的资格或能力。随着人工智能时代的到来,以聊天机器人ChatGPT为代表的生成式人工智能将广泛应用于各大场景中,在丰富与便利生产生活,创造更多创新发展机会的同时,也引发了诸多侵权损害与法律挑战,如数据合规风险、生成内容滥用风险、算法滥用风险、隐私保护风险等。其中最大的风险是数据来源与生成内容以假乱真等引发的侵权问题,需要我们在法律上做出必要的回应。以AI孙燕姿侵权案为例,从生成式人工智能的技术逻辑和行为特征可以看出,其内容的输入与输出都是基于对海量数据样本的分析、训练和学习,这就可能涉及包含个人信息、知识产权等内容的数据。故在其数据收集或内容生成的过程中,就可能对他人的隐私权、人格尊严、知识产权等构成侵权。[1]另外,以布莱恩·胡德诉ChatGPT诽谤案为例,生成式人工智能对海量多源数据的分析与学习既无法真正实现全部由人工检查、标注和监督,在运行时也无法保证每一次都能识别使用者的恶意诱导,从而导致可能生成侵犯他人名誉的虚假文本、图片、视频信息。
有损害就要有救济,那么为切实保障受到侵害的合法权益,应当由谁来承担侵权责任就成为一个不可避免的问题。然而,我国以往关于人工智能的法治研究与规范,主要集中在自动驾驶和智慧医疗等领域。近年来,学者们对生成式人工智能的研究也主要集中在风险治理方面,侵权责任方面的研究较少。另外,生成式人工智能领域的相关法律规范尚未健全。2023年7月发布的《生成式人工智能服务管理暂行办法》尽管规定了生成式人工智能服务提供者的责任,即明确了生成式人工智能的技术开发商、提供可编程接口等接入服务的组织和个人均需对其生成的内容承担责任,但并未对生成式人工智能侵权的具体责任承担主体进行细化和规范。因此,对生成式人工智能侵权责任主体的研究具有现实意义。基于此,本文将从对生成式人工智能非责任主体的论证出发,进一步剖析赋予生成式人工智能服务提供者、使用者与第三方责任主体地位的合理性,以期学界能有更深入的研究与规范。
二、生成式人工智能的非责任主体地位
随着人工智能的出现、应用与发展,其智能性、自主性、创造性日益增强。其中人工智能是否具有法律主体地位,能否承担侵权责任,是责任划分的前提性条件,也是世人关注的焦点。因此,在这一问题上,理论界就人工智能的法律主体资格展开了激烈讨论,各有不同观点。通过梳理有关文献资料,可发现国内学者大致分为两种流派。
第一种是否定说,即人工智能不具备类似自然人的思维和独立自由的意识,也不存在似法人一般的社会价值,人工智能只能作为法律客体,不具备成为法律主体的条件。这也是国内法学界的主流意见。譬如,白玉杰和张昱提出法律制度的核心始终在于以人为中心,而人工智能本质上仍只是一种机器,不具备作为法律主体的资格。[2]
第二种是肯定说,即不同于否定说对人工智能的保守看法,它认为应突破“二元主体论”,在自然人和法人之外将人工智能设立为新的法律主体。但对于赋予人工智能以何种法律主体资格的问题上,学者们各抒己见,主要包括完全人格说、拟制人格说、电子人格说、有限主体资格说等。例如,2017年沙特阿拉伯确认机器人索菲亚与自然人同等的公民地位,享有与履行和自然人同等的权利与义务。袁曾主张生成式人工智能已经具备类人类意识能力与行为能力特征,在法人这一拟制主体的现实借鉴下,可考虑给予它以特殊的法律主体地位,但由于其智能机器的身份限制以及以人为本的伦理基础,决定了其自身法律人格的限度。[3]
无论否定说,还是肯定说,都从理论逻辑出发展开了较为深入的研究并具有一定的说服力。以笔者之见,人工智能作为提升人们生活水平和生产效率的技术工具,现阶段无论其多么智能,本质上仍只是受人支配的辅助物,并不具备享有法律主体资格的条件。主要基于如下几点考虑:
第一,人工智能缺乏自然人的理性自主意识。在判断人工智能的法律主体资格时,其是否具备理性自主意识是其中的核心要素。当前,以ChatGPT为代表的生成式人工智能相比传统人工智能自主性和智能性都有了明显提升,可以在与人类交流互动的同时,“创作”出文本、绘画、视频等内容物。但结合其技术逻辑和运行原理可知,其行为完全是基于数据样本及算法模型下实施的,而原始数据离不开人类的采集和整理,算法模型是由人类预先设计且建构而成的,其运作也依赖于人类下达指令。因此,生成式人工智能本身内在价值观的产生及其基本行为方式的选择,完全可以归咎于该人工智能的设计研发者、服务提供者等。换句话说,其并不具备像自然人一样的独立自主意识,体现的只是背后设计开发者与服务提供者的主观判断和价值取向,这也是目前AIGC普遍带有偏见与歧视风险的原因之一。此外,以ChatGPT为代表的大语言模型之所以会出现“幻觉”通病,主要原因就在于其并无所谓的人类思维与理性意识,对于情感抒发与语言表达,它并非能像人类一样理解,而只能是基于训练数据的高度模仿。因此,不可避免地会出现一本正经的胡说八道,编造“看起来合理,本质上却不正确或不存在”的信息。
第二,人工智能与法人组织不同,不能自主承担法律责任。法人是拟制的法律主体,是由人集合而成的实体,它的意志是由下辖的组织机关及其成员共同形成,独立财产也由其成员共同出资构成。与此同时,即便法人凭其独有财产独立承担了法律责任,从实践中可以看出,归根结底也只是由其成员承受被惩罚的痛苦。相反,人工智能是人为了满足生活和工作需要而创造的机械工具。以ChatGPT为例,其只是由GPT3.5模型架构的、能与使用者进行对话互动的智能应用,并非由人组合而成。也就说,设计研发者、服务提供者、使用者等并非是其成员。同时,人工智能也不像法人拥有负担法律责任的独立财产,也没有规范认识和理解能力,即不会认识到所犯错误,更无法感知惩罚带来的痛苦,故若让其承担法律责任则没有任何意义。一方面,无法发挥法律的救济作用,不能让受害人得到实质性的弥补。另一方面,无法实现法律的惩戒效用,难以避免再犯罪的危险。
综上,人工智能不应被赋予法律主体资格。究其根本,人工智能作为新时代信息技术革命的产物,无论是传统人工智能,抑或是生成式人工智能始终都以服务人类、服务社会而非实现自我为目标,正如张凌寒所言:“在鼓励我国生成式人工智能发展的思路下,应将生成式人工智能定位为基础设施,”[4]而非人类社会中法律主体中的一员,否则人类将没有理由把人工智能作为一种服务工具来使用。
三、生成式人工智能服务提供者、使用者和第三方的责任主体地位
在生成式人工智能不具备法律主体资格的前提下,需要重新考虑其侵权的责任承担者。在传统网络侵权中,根据《民法典》第七编的相关规定往往涉及三方侵权责任主体,即网络用户、网络服务提供者和第三人。对应到生成式人工智能领域中,可归责之主体可以细分为生成式人工智能服务提供者、使用者、第三方等多方责任承担者。首先,数据来源与算法设计等是决定人工智能生成内容质量与可信度的关键,生成式人工智能服务提供者在这一核心要素上充当着把关人和决定者的角色。因此,根据“谁支配,谁负责”的原则,明确其是生成式人工智能侵权行为的责任主体具有合理性,理由如下。
一是,由于生成式人工智能输出结果的准确性依赖于海量多源的数据,而根据《办法》第七条规定,高质量的数据离不开人为干预,服务提供者应当落实《网络安全法》、《数据安全法》、《个人信息保护法》等法律法规的监管要求,对生成式人工智能的预训练数据、优化训练数据等训练数据类型与来源的合法性负责。同时,《办法》第九条强调服务提供者对输出内容承担生产者责任和个人信息处理者责任,故当筛选数据和输出内容过程中出现了合法性与真实性偏差时,监管者可依据责任规范来判定有关主体的责任。
二是,以ChatGPT为例,生成式人工智能所依赖的基础数据和算法使用方式由其服务提供者控制和决定,其可以在对数据进行标注或设计算法时,将某些价值观嵌入其中。故而,在生成式人工智能自身缺乏理性意识的前提下,其生成行为本质上仍体现着数据把关者和算法程序编制者---生成式人工智能服务提供者的主观意志与价值选择。具而言之,生成式人工智能服务提供者在很大程度上可以决定和支配人工智能输出成果的合法合规性。如此,可以将生成式人工智能与其服务提供者之间的关系类比为“委托-代理”的法律关系,其中人工智能的生成行为可以视为“代理”其服务提供者从事行为或作出决定。据《民法典》第162条,相应的就应当由服务提供者对人工智能的侵权行为承担法律责任。
其次,以ChatGPT为例,生成式人工智能内容的输出不仅依赖于系统本身的训练数据和算法逻辑,亦取决于不同使用者的个性化需求以及对生成内容所作的反馈。加之,即便生成式人工智能服务提供者履行了审慎注意义务,因其没有审查监管生成内容全过程的能力,从而无法避免不良用心的使用者利用其服务制造侵犯他人权益的内容。例如,据美国新闻可信度评估与研究机构对ChatGPT所做的测试,虚假信息研究人员对它提出充满误导性叙述的问题,发现它能在极短时间内对信息进行改编,生成大量有说服力但又不真实的信息。[5]这一特点可能导致ChatGPT被有心之人所利用,成为高效的犯罪工具,侵害个人权益,甚至可能会引发整个社会信任体系的崩溃。故不仅存在生成式人工智能自动侵权的情况,也有使用者输入相关指令“调教”生成式人工智能对外生成含有违法性内容的情况。根据“谁的行为支配生成式AI引发了侵害结果,谁就应当对该结果负责”的责任承担机制,在使用者故意诱导致侵权结果发生的情形下,使用者作为过错一方,理应承担侵权的责任。
另外,生成式人工智能侵权风险与各环节主体均有关系,包括貌似无关的第三方。如智能系统遭遇黑客侵入,并被恶意操控与篡改,使得系统程序紊乱而无法按照正当的程序设计运行,正常且合理问题下出现了仇视性或暴力攻击性言论,通过传播由此给他人造成了严重威胁。聊天机器人Meta AI便有类似经历。[4]在这种情况下,据《民法典》第1175条规定,黑客作为造成损害的第三人,理应承担侵权责任。
四、结语
科学技术是把双刃剑。人们在享受以ChatGPT为代表的生成式人工智能为人类社会提供便利的同时,也要正视其带来的多样性侵权风险,以及复杂的责任承担问题。本文基于对我国现行法律基础和法律价值的考虑,结合ChatGPT等的技术逻辑和运行原理论证生成式人工智能侵权的责任主体。一方面,生成式人工智能作为数字时代的产物,缺乏独立自主意识和责任承担能力,其存在只是为了服务于现实人类的生存与发展。因此,应将其定位为法律客体,不享有责任主体地位。另一方面,根据“谁支配,谁负责”原则,综合分析服务提供者、使用者和第三方对侵权行为的实质作用,合理承担责任,为目前法律体系下无法赋予生成式人工智能独立法律主体地位的问题提供解决途径;也为进一步构建安全有序、科学合理、惠及人民的未来智能生态系统提供了法律保障。