(资料图片仅供参考)
面对生成式人工智能给互联网生态带来的新一轮技术变革的冲击和挑战,今年4月11日,我国国家互联网信息办公室公布《生成式人工智能服务管理办法(征求意见稿)》,将生成式人工智能定义为“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。2023年1月30日,哥伦比亚一名法官首次使用ChatGPT作出了保险公司应承担与治疗自闭症有关所有费用的判决,成为“全球首例AI审判第一案”。随即,ChatGPT等生成式人工智能对司法审判的影响引起了法律界热议。ChatGPT等生成式人工智能技术大语言模型的核心任务是最广泛利用数据,保证更准确的信息输出,在辅助司法审判方面可以建立和实现类案配对与类比裁判,最后通过自然语言交互方式生成判决文书,相较于原有初级人工智能技术辅助类案智能化算法推荐技术,实现了技术功能上的延展性,在提升司法效率的同时也将带来相应的法律风险和挑战。
结合生成式人工智能的技术特征与我国司法审判工作的规则和特质,笔者认为,对生成式人工智能在司法审判实践中的运用应持审慎态度,这是因为:首先,从技术层面来讲,ChatGPT等生成式人工智能使用具备足够代表性的训练和验证数据集,才能提高生成内容的真实性、准确性。尽管有这样的技术追求,但ChatGPT等生成式人工智能目前确实广泛存在产生错误信息的风险。从目前裁判文书的公开程度及数据安全管理角度来看,均无法从源头上防范生成错误判决的风险。其次,生成式人工智能缺乏“心证”的能力。法官在对案件事实作出判断时,受地域、习俗等事实认定因素的影响而存在差异。ChatGPT等生成式人工智能尽管在抓取案件关键信息方面具有技术上的先天优势,但无论是生成式人工智能算法的设计者、服务的提供者还是实际的使用者,均无法对生成的内容进行实质性干预,自然也无法替代法官进行事实查明。同时,司法裁判的价值判断也无法被人工智能技术中的计算模型所取代。法官自由裁量权的存在,致使人工智能难以对此完全建立案例之间的因果关系,进而无法实现万无一失的类案配对与类比裁判。最后,生成式人工智能对法官的个人素养和专业素养要求更高。由于用户在内容生成过程中需要提供提示,生成式人工智能在法官的提示下,生成的判决书可能与法官的内心裁判不一致,其反馈也可能误导人工智能作出错误判断。此外,生成式人工智能的高度便捷性亦会使法官过分依赖而产生惰性。这些都可能对司法公正造成不利影响。司法审判中公平正义目标的实现需要法官的积极反应和智慧判断,而不是被动且任意地使用人工智能生成的判决结果,这对法官的素养无疑提出了更高的要求。
囿于生成式人工智能技术仍有待成熟,且缺乏司法裁判应有的社会性及人性温度,司法审判中应审慎利用生成式人工智能。公正司法是维护社会公平正义的最后一道防线。尽管在某些特定的案件中,生成式人工智能输出的裁判书能够实现公平正义、同案同判的基本审判目标,但若强行将生成式人工智能技术过度运用于司法裁判,则有可能侵蚀司法公正的价值目标。面对技术革命的冲击,为保证公正司法,司法机关在考虑如何利用生成式人工智能提升司法效率的同时,加快建立运用的规范化标准则是当务之急。
(解锟,作者系北京工业大学副教授)