作为一直关注相关领域的律师团队,我们也不仅仅将眼光局限在该应用是否能取代律师的工作上,更关注类似人工智能应用在法律层面上应解决的诸多问题。事实上,国内司法系统、律师行业对于人工智能方面的应用还是抱持一种积极的态度,同时也始终关注其带来的法律风险和伦理风险。根据全国信息安全标准化技术委员会发布的《网络安全标准实践指南—人工智能伦理安全风险防范指引》就指出,该类应用要特别关注的伦理安全风险包括“失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险”。因此,围绕上述风险的防范设计也是应用开发、经营和使用者所应特别重视的。
美国国内对ChatGPT类的人工智能应用提出法律和伦理道德上质疑的团体不在少数。之前就有报道说AI应用作为代理方出庭受到抗议后放弃。即便存在诸多质疑声,但科技巨头和资本市场纷纷加码类似应用,谷歌及国内百度等企业也即将上线类似应用。目前来看,相关应用在针对国内法律专业领域的作用还较为有限,但我相信未来其他公司针对法律专业领域的人工智能应用也会很快推出上线。目前国内司法系统内已开始推进有关人工智能的司法应用。
为有效保障人工智能司法应用过程中扬长避短,最高院在2022年12月《关于规范和加强人工智能司法应用的意见》中特别提到人工智能司法应用需要遵循的五项基本原则:
1、安全合法原则。坚持总体国家安全观,禁止使用不符合法律法规的人工智能技术和产品,司法人工智能产品和服务必须依法研发、部署和运行,不得损害国家安全,不得侵犯合法权益,确保国家秘密、网络安全、数据安全和个人信息不受侵害,保护个人隐私,促进人机和谐友好,努力提供安全、合法、高效的智能化司法服务。
2、公平公正原则。坚持遵循司法规律、服务公正司法,保证人工智能产品和服务无歧视、无偏见,不因技术介入、数据或模型偏差影响审判过程和结果的公正,同时尊重不同利益诉求,能够根据司法需求公平提供合理可行方案,充分照顾困难群体、特殊群体,使其在司法活动中获得必要帮助,实现智能化司法服务对各类用户的普适包容和机会均等。
3、辅助审判原则。坚持对审判工作的辅助性定位和用户自主决策权,无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考,确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。各类用户有权选择是否利用司法人工智能提供的辅助,有权随时退出与人工智能产品和服务的交互。
4、透明可信原则。坚持技术研发、产品应用、服务运行的透明性,保障人工智能系统中的司法数据采集管理模式、法律语义认知过程、辅助裁判推定逻辑、司法服务互动机制等各个环节能够以可解释、可测试、可验证的方式接受相关责任主体的审查、评估和备案。司法人工智能产品和服务投入应用时,应当以便于理解的方式说明和标识相应的功能、性能与局限,确保应用过程和结果可预期、可追溯、可信赖。
5、公序良俗原则。坚持将社会主义核心价值观融入司法人工智能技术研发、产品应用和服务运行全过程,保证人工智能司法应用不得违背公序良俗,不能损害社会公共利益和秩序,不能违背社会公共道德和伦理,健全风险管控、应急处置和责任查究机制,防范化解人工智能司法应用中可能产生的伦理道德风险。”
上述五项原则其实也是目前国内司法领域对于人工智能应用(包括ChatGPT类应用、GPS导航、自动驾驶、医疗AI、工业质检AI、自动生产线、自动文本生成器等应用产品)的基本审视思路和合规底线。人工智能应用企业应当从上述五大司法原则出发去进行产品设计和运营维护。