生成式人工智能在律师法律服务中的应用及其边界
- 发表时间:2025-06-09 10:03:20
随着大模型从通用基础能力向垂直场景深化、多模态融合与本土化落地的跨越式发展,包括法律服务在内的诸多行业领域面临着颠覆性的影响。生成式人工智能在释放法律服务新生产力的同时,也潜藏着显著的安全伦理风险。就律师服务而言,如何更好地平衡生成式人工智能的应用与风险成为了一个极具挑战的问题。
一、生成式人工智能助推下的法律服务变革
从早期的法律数据库,到后来的在线法律服务,再到如今的法律机器人,法律服务不断从信息化、自动化迈向智能化。随着大模型的兴起,生成式人工智能正在推动法律服务迎来新的变革。
2022年11月,OpenAI推出ChatGPT,这款能够对话的大模型应用引发全球关注。同样在2022年,专注于法律垂直领域的人工智能服务商Harvey正式成立。这家法律科技公司通过自然语言交互帮助律师或者其他客户完成法律信息检索、法律文书生成等任务,并支持多轮对话优化输出结果。此外,律商联讯(LexisNexis)等法律信息服务商也很快接入大模型,提供生成式人工智能法律服务。在大模型的助力之下,法律科技公司DoNotPay推出的“机器人律师”甚至尝试参加庭审,其开发者还声称要以此取代部分律师。
2023年2月,复旦大学推出国内对话式大模型MOSS;同年3月,百度发布大模型文心一言,随后研究机构和科技企业纷纷推出各自的大模型,我国快速迈向“百模大战”的竞争发展态势。除了法律科技公司,最高人民法院于2024年11月发布了“法信法律基座大模型”,这是国内首个法律行业AI基座大模型。今年1月,DeepSeek-R1因其超强推理能力、开源、低成本路径,在我国“百模大战”中脱颖而出,并引发全球关注。DeepSeek掀起的技术革新浪潮不仅改变了“百模大战”的发展态势,也使得生成式人工智能应用在我国迎来了爆发期。可以预见,以DeepSeek为代表的大模型应用将对我国的法律服务行业产生重大影响。
二、律师服务中生成式人工智能的应用潜能
人工智能技术很早就被应用在了法律领域,法律信息检索是其中最核心的功能。随着机器学习与自然语言处理等技术的迅猛发展,人工智能在法律服务中的应用日益多元化。不论是国内还是国外,律师及律所一直在探索借助人工智能技术优化法律服务。随着生成式人工智能的快速崛起,律师在法律研究、日常工作、对外宣传等诸多方面的能力都可以借助大模型技术工具得以提升。律师执业的核心在于法律咨询、法律文书等方面,生成式人工智能在这些领域均有着重要的应用潜能。
(一)法律信息检索
法律信息检索是律师提供法律咨询等服务的基本前提和重要环节,即便再有经验的律师仍然需要通过法律信息检索等手段明确具体的法律服务方案和内容。在大模型出现前,律师可以通过各种免费的网络信息平台进行法律或者案例检索,也可以通过付费方式获取不同的专业化法律信息检索服务。对于免费的法律信息平台而言,律师往往无法获得精准的检索结果,因此需要花费较多的时间成本;对于付费的法律信息检索服务而言,律师一般可以获得相对精确的检索结果,但这类服务通常面向机构用户而非律师个人。大模型出现后,律师通过合理的提示,可以免费获得相对精准的检索结果,一定程度上节省了时间和费用成本。
对律师而言,生成式人工智能赋能法律信息检索既是机遇也是挑战。当前,以DeepSeek为代表的中国生成式人工智能服务正在为普通百姓实现“技术平权”。在这样的科技应用背景下,没有任何法律基础的人也可以选择求助于大模型来解决法律问题,这势必会降低人们对律师服务的需求。实践中,越来越多的当事人已经在尝试通过大模型进行法律信息检索,进而对代理律师的法律服务方案提出质疑。随着大模型的继续迭代并逐渐融入民众的日常生活,普通百姓的法律信息检索能力也会不断提升,这将进一步考验律师的法律服务能力。
(二)法律文书生成
不论是律师提供的诉讼法律服务还是非诉服务,律师服务的正式交付物通常是各种法律文书,包括诉讼文书、合同文本、法律意见书等。在大模型出现前,人工智能技术就已经逐步应用到各类法律文本审查或生成场景中,但由于文书生成的形式和质量的局限,这类服务无法有效满足用户需求。然而,生成式人工智能对法律文书的生成产生了较大的影响。通过大模型,律师能够极为迅捷地获取几乎任何形式的法律文书,而且可以通过提示不断调整优化法律文书的内容质量。
法律文书生成极大地提升了律师日常工作效率,同样也会对律师服务形成根本性的挑战。越来越多的当事人选择大模型生成法律文书,从而自助完成法律救济。如果说诉讼服务在庭审等关键环节律师仍将发挥重要作用的话,在非诉服务中律师将面临着更大的挑战。越来越多的法律科技公司通过引入大模型,以较低的费用为非诉客户提供服务。
三、律师服务中生成式人工智能的应用边界
生成式人工智能在法律服务领域有着诸多优势和应用潜能,但也存在着多方面的挑战。律师执业过程中有必要对大模型应用于法律服务的局限性有清晰的认识,也要高度重视大模型应用潜在的数据安全和职业伦理风险。
(一)无法完全消除的“幻觉”
DeepSeek-R1模型的性能可以直接对标全球顶级推理模型OpenAI o1,但相较于闭源且推理过程不透明的OpenAI o1模型而言,DeepSeek-R1能够主动呈现深度思考过程,从而在一定程度上打破大模型“黑盒子”的生成逻辑。虽然在法律服务场景中,律师可以看到大模型的整个推理过程,但这并不意味着大模型生成内容就绝对靠谱。不论是GPT-4o或者DeepSeek-V3等全能属性强的通用模型,还是OpenAI o1或者DeepSeek-R1等专家型的推理模型,都可能生成根本不存在的法律或者案例。不论是法律服务或者其他行业领域,“一本正经的胡说八道”是大模型的通病。
大模型生成与事实不符的内容通常被描述为“幻觉”(Hallucination),其基于统计建模与概率预测生成文本,而非真正理解语义或事实逻辑。这决定了大模型在生成内容时必然存在编造信息、输出错误的风险,“幻觉”是大模型的固有局限。即使模型经过不断优化或扩展,也只能减少幻觉频率或局部影响。不论是法律信息检索还是法律文书生成都难以避免“幻觉”的影响,在某种程度上应对“幻觉”问题也可能成为律师服务的重要工作内容。只有正视“幻觉”的局限性,律师才能够对生成式人工智能的应用有更加清醒的认识。这样律师才能够更好地摆脱技术依赖,并有效地改变潜在客户或者当事人的认识偏差。
(二)不容忽视的安全伦理风险
法律服务不可避免会涉及案件信息或者法律文书等数据或者个人信息处理。在这个意义上律师及其所在律师事务所也属于《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》所调整的数据处理者或个人信息处理者。虽然律师在执业过程中可以通过同意豁免等法律机制自主决定大模型的使用,但人机交互过程中仍然需要遵循正当性、必要性原则,履行去标识化等数据处理的法定义务。在实践中,一些律师直接将未经任何脱敏处理的当事人信息或者法律文书信息提交大模型进行法律检索或文书生成,这样的做法既不符合职业伦理,还可能涉嫌违法。
保密既是律师执业过程中的基本权利也是其基本义务。除非法律特别规定或经当事人同意,律师在执业过程中应当对知悉的当事人隐私、商业秘密以及其他未公开信息等严格保密。大模型的特点或者能力可以概括为两个主要方面,即泛化和涌现,前者可以形象地概括为“举一反三”,后者则可以形象地概括为“无中生有”。律师在向大模型提供当事人信息时,可能被模型记录并用于后续训练,导致保密信息被永久留存甚至泄露。由于大模型的内部运行逻辑不透明,律师也无法完全确认数据是否被彻底删除或是否被泛化或者涌现使用。因此,律师对生成式人工智能应用时潜在的保密等职业伦理风险同样不容忽视。
(作者:郭兵,浙江理工大学)
【责任编辑:尚鑫】