说法 | 直面ChatGPT——人工智能应用对律师行业的影响及法律思考(下篇)
2023-02-12
邱鹏飞

文 | 邱鹏飞律师 高级合伙人


03 与人工智能应用相关的主要法律风险


实务中,无论是应用开发者、经营者以及使用者都应当重视以下与人工智能应用相关的主要法律风险:


1、数据安全及规范使用的相关风险


人工智能应用(AI应用)核心是“数据、算法和运算能力”,其中算法是依托于大数据,因此天然需要大量的数据支持以便进行不断的迭代和更新。数据的完整性和真实性对其至关重要。目前常见的合法数据获取方式包括开发者自行输入、第三方授权、用户授权、网络爬虫、生态共享、自身产品生成等方式。随着《网络安全法》、《数据安全法》、《个人信息保护法》、《网络安全标准实践指南—人工智能伦理安全风险防范指引》、《新一代人工智能伦理规范》等法律法规、规章制度和行业标准相继落地,对于数据的收集、存储、使用和共享等提出了明确的司法保护和责任规制要求。


以ChatGPT类的应用为例,用户在使用过程中也是不断提供应用数据并且为应用所储存的过程,这一过程首先应充分告知、并取得用户的特别授权,并且同时应当提供撤回选项。如对于数据向第三方提供、公开信息、敏感信息或者个人信息跨境等问题还应当单独取得用户的特别同意。


对于网络爬虫方式收集的数据信息,也应采取数据获取的合法方式。对于完全公开的数据(无事先身份认证前提的数据)、相对公开数据(有特殊授权范围及事前认证前提的数据)以及非公开数据(往往构成法律意义上商业秘密的数据,)数据收集方应当根据数据的不同类型采取适当的方式进行收集,比如对于相对公开数据收集应当取得用户及数据控制方的特别授权,以此避免构成不正当竞争行为、甚至构成非法获取计算机信息系统数据罪等法律问题。


基于此,数据收集方在收集不同公开程度的数据时,应当严格遵循“合法、正当、必要”原则,并共同出台行业公约及标准化共享化协议,形成行业规范化数据收集的指引依据。


此外,人工智能应用数据库选择的完整性也会大大影响人工智能应用的准确性。比如裁判文书网会公开相关的判决书,但相关判决书背后的证据资料、证据审查意见、详细代理意见、庭审意见、内部合议庭意见、审委会意见等并不公开。因此,人工智能应用数据收集的不完整也令输出结果的可靠性存在质疑。目前根据部分自媒体披露的ChatGPT使用过程来看,经常会出现未提供引用数据的来源,或者所提供数据来源本身就不准确或者是系统自行编造的情况。因此作为应用开发者或者经营者来说,保持数据的收集、储存、使用和共享等方面合规,不仅要确保应用在推出的这个时点是合规的,更要确保应用在使用过程中进行持续的审查、自检和更新,以确保持续性的合规。


2、算法相关问题


算法模型是人工智能应用的底层逻辑基础,其内部结构和输出原理很难为未受过训练的普罗大众或者司法从业人员所了解。因此算法模型的不透明性也与常见的信息公开原则相违背,再加上算法模型大致上为一种概率学的分析,容易忽视个性案例,因此也与司法实践中讲求的实事求是的原则相违背。不过未来随着相关应用在司法领域的普及(比如许多机构已推出“模型说明书”或者打造可解释性的工具,如AI模型等),以及跨领域人才(技术及司法人才)的培养,对于算法透明化的问题,相关技术机构和司法机构也在不断推进新的举措。


我国现行法规分别从反垄断、反不正当竞争、个人信息保护、算法服务监管、深度合成信息等角度对于算法进行了规范,具体文件包括《反垄断法(修正案)》、国务院反垄断委员会发布的《国务院反垄断委员会关于平台经济领域的反垄断指南》、九部委出台的《关于加强互联网信息服务算法综合治理的指导意见》、国家网信办出台的《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》等法律法规及规章制度等。


目前根据相关规定,算法可分为生成合成类算法、个性化推荐类算法、排序精选类算法、检索过滤类算法、调度决策类算法(外卖平台)等。其中ChatGPT类应用大致属于生成合成类算法。从合规角度来看,相关应用的设计者和经营者应当重点关注以下方面:


(1)建立健全算法管理制度和技术措施,相关制度应当包括对于健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络诈骗、安全评估监测、安全事件应急处置、防止诱导沉迷系统、人工审查及干预系统、违法不良信息处置及通报制度、辟谣及虚假信息处置制度等;同时设置定期审核、评估、验证算法的常态化监督制度,确保上述制度有效落实、执行以及更新;


(2)优化算法规则的透明度和可解释性,鼓励去重、打散干预等策略;


(3)对算法生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识,并以此技术从事任何违法行为。而ChatGPT类应用也应当对此作出相应设置,确保其所提供的内容能有效被识别,以防止抄袭、作弊等情况频发。据报道,OpenAI方面拟推出相关检测应用,确保第三方可以识别相关ChatGPT生成的内容。当然由于ChatGPT类应用生成物为文字内容,也极其容易增删、调整、转化语句等,所以如何做出有效标识以及进行可查证,似乎也有一定难度;


(4)加强用户权益保护,从知情权、选择权、投诉及举报权、特殊群体保护(未成年人及老年人等)、劳动者工作调度权益保障、消费者公平交易权(主要针对“算法杀熟”)等角度进行保障;


(5)对于具有舆论属性或者社会动员能力的深度合成服务产品应当进行事前安全评估,其服务提供方及技术支持方应履行备案和变更、注销备案手续,并在其对外提供服务的网站、应用程序等的显著位置标明其备案编号及公示信息链接;


(6)人工智能时代的商业竞争行为应以法律为边界,防止利用算法优势等开展不正当竞争及垄断行为。


3、人工智能应用所带来的侵权责任承担问题


人工智能应用侵权责任的主体,除了传统意义上的设计者、经营者以及使用者之外,最大的争议在于人工智能应用本身是否构成侵权责任的主体。从弱人工智能应用的角度来看,司法实践一般将其作为工具,因此人工智能应用本身不构成侵权责任主体。但随着ChatGPT等更具有进步性的人工智能应用加速拓展,强人工智能应用是否构成侵权责任法律主体,而非法律客体也变得具有探讨的实际意义。而欧盟则最早提出了人工智能“电子人格”的说法。比如在科幻电影《流浪地球2》中的MOSS系统,显然具备了欧盟所理解人工智能的“电子人格”。当然目前对于侵权责任主体认定上,人工智能应用还属于物的范畴。


从人工智能应用的侵权行为产生的起点来看,主要有以下三个原因:


(1)人工智能应用产品本身的设计缺陷及质量问题等;


(2)使用者的故意或过失的行为,比如操作错误或不法行为;


(3)非归因于生产商及使用者的原因,而是基于人工智能应用自身判断的技术原因。举例来说,与传统搜索引擎不同,搜索引擎将数据信息抓取以原状呈现,并未进行加工和再创作,如果信息使用者非法使用抓取信息那显然认定使用者存在过错。但ChatGPT应用或者比如自动驾驶系统等是在用户看不见的地方完成了数据的收集及重新整理后进行的再创作、再判断,一旦其所生成的内容或作出的行为构成了对第三方的侵权时,则很难完全推定用户存在任何过错。


其中前两个原因本身较易判断,符合现行侵权责任法的过错责任原则,即具备明知或应知的前提。但第(3)个原因系归因于人工智能应用本身,在学界曾进行过不同观点的探讨。目前司法实践更倾向于从《产品责任法》中生产商的无过错责任来认定,即生产商是对人工智能应用的行为预测更为熟悉,对于应用的算法、底层逻辑掌握远高于其他环节的经营者及使用者等。而且人工智能应用的复杂性、技术性以及科技发展的突破速度,使得要证明人工智能应用本身存在或者不存在缺陷,举证上都异常困难,耗费巨大,因此从侵权行为导致的结果和损失角度出发,适用严格责任制度,更有利于矛盾化解。


因此,生产商在实践应用过程中,应当注意从自身风险防范的角度出发,比如引入强制责任保险制度、保障基金制度等,避免因侵权赔偿给自身造成过大的风险冲击。同时,生产商应当在应用使用前,事先明确向使用者告知使用范围、使用说明、使用方式、免责事由、风险可能、技术安全底线设置等,必要时可以设置培训考核课程,并取得经营者及使用者明示确认,以此降低自身的责任风险。而经营者应当注意相关应用质量检测、验收、维护、对外销售过程中的充分风险揭示等工作;使用者则更应该重视风险揭示内容,同时注意自身对于应用的合法及合理化运用。


4、知识产权保护相关问题


人工智能应用深度合成所产生的生成物的著作权保护问题一直是学界讨论的热点。这其中涉及到核心的两个问题,即生成物究竟是否属于作品?生成物的著作权归属?


根据《著作权法》第二条规定,只有自然人、法人或非法人组织的作品才能受《著作权法》保护。同时《著作权法》第三条规定,作品是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。《北京市高级人民法院侵害著作权案件审理指南》的第2.2条规定了“独创性的认定”应当考虑如下因素:(1)是否由作者独立创作完成;(2)对表达的安排是否体现了作者的选择、判断。从上述规定及目前司法实践认定来看,作品更倾向于由人的智力成果所产生,其中应当包含:由人参与、体现了人的选择和判断。


而ChatGPT类应用生成物的过程来看,人的占比因素比较小。虽然使用者提供了关键词或者说是相关问题、要求及指令,但整个生成物基本系由人工智能自身产生,并非是使用者思想的表达。而且关键词或者相关提问也不是应用的设计者输入,无法体现设计者思想的表达。因此很难认定为是使用者或者设计者某一方创作的作品,或者变相的说是人工智能应用创作了作品。这一说法在北京法院审理的“人工智能生成物著作权纠纷第一案”【(2018)京0491民初239号民事判决书】中得到支持和充分说理。该案中,原告使用威科先行数据库中检索关键词,使用数据库“可视化”功能生成了某分析报告,并用于发表。之后,被告未经授权转载运用,双方产生争议,诉至法院。最终法院认定,软件研发者(所有者)和使用者均不应成为该分析报告的作者。


同样类似问题,在深圳法院作出的(2019)粤0305民初14010号民事判决书中给出了不同的认定。虽然法院认可自动写作软件生成涉案文章的创作过程,确实没有人的参与,仅仅是计算机软件运行既定的规则、算法和模板的结果。但法院同样认为,软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了使用者的选择,也是由自动写作软件这一技术本身的特性所决定。因此法院最终认定该生成物作品属于著作权法意义上使用者的文字作品。


此外,关于该生成物著作权归属的问题。从ChatGPT类应用生成物的创作过程来看,用户提供了关键信息并且进行了主导(多轮提问及细化引导),人工智能应用结合训练的数据、运行自身算法和逻辑生成作品。而应用设计者及经营者也有智力成果包含其中,因此作品归属权究竟归属于何方,抑或是用户及经营者可以共有的作品。在各方未明确约定权属的情况下,北京法院在“人工智能生成物著作权纠纷第一案”【(2018)京0491民初239号民事判决书】中,从《著作权法》的根本目的及鼓励作品传播的角度出发认为,应用设计者已从应用使用过程中收取了费用,得到了回报;而且整个特定的生成物中,使用者赋予了更有特性的思想和表达成果于其中,对于作品的传播具有更高的期待和动力。因此双方相比较而言,将生成物归属于使用者更加有利于作品传播,而且也更有利于应用的积极推广和更多人的使用,并最终认定生成物归著作权权属归属于使用者。


因此,如类似应用开发者或经营者对于应用生成物的著作权权属有主张的,为避免产生争议,应在用户使用应用前与用户达成约定,明确生成物的著作财产权的份额占比和传播途径等。实践中,一些自动生成小说的应用经营者,即明示要求生成小说发布于其指定平台,并可分享相应收益。当然从商业角度来说,应用经营者过于苛刻的著作财产权主张也可能导致应用使用人数的下降,因此如何取舍就取决于应用经营者的商业智慧了。


04 结语


人工智能应用时代的全面到来已经无可避免。当来到科技与人性的十字路口,面临诸多选择时,我们与其像工业革命开始时纺织工看待新型纺织机那样无奈,或者暗自庆幸ChatGPT类应用代替律师的日子似乎还很遥远,不如迅速调整思路,接受时代带来的快速改变。作为律师同行以及其他司法从业者,如何更有效引入、运用人工智能来激发新的法律服务市场及服务格局,获得更好更优质的人才红利,才是当下我们值得深入讨论的问题。