“未来,我会被AI取代吗?”

作者: 图维数智
发布于: 2025-04-10 11:37

随着DeepSeek等AI大模型的走红,人们发现,从诗词歌赋、散文小说等创意写作,到学术文章、法律文书、营销文案等应用性文本,“AI”不仅具备深厚的“知识储备”,甚至在遣词造句方面也毫不逊色于人类。

AI时代滚滚向前,也向当代法律工作者抛出了一个问题,我们会被取代吗?

为此,我们邀请到长安法院知识产权法官王维君,针对大语言人工智能(LLM)与法律行业关系密切的几个热点问题展开探讨,以期实现抛砖引玉的交流效果。

Q1

大语言模型会对法律行业造成冲击吗?

 

答:

众所周知,法律的载体是文字和语言,而如DeepSeek和ChatGPT等,以大语言模型为基础的AI工具,其语言处理模型的训练数据量,可以轻易超过一个自然人所能够积累的语言材料。因此,大语言模型的AI,对于以语言为载体的法律,自然也就具有了相当可观的学习和输出之能力。

 

在法律实践中,尽管每个案子都有所不同,但绝大多数的案件,都可以按照一定的规范形式转化为某种“典型案件类型”。AI工具通过海量的法律文本数据训练,自然就可以建立起与这类“典型案件类型”相匹配的基本处理单元(即“Token”,也是AI模型通常的计费单位)层面的语言预测、组织和输出的能力。所以,AI工具在通常法律问题的答复,以及标准化法律文书的草拟等方面,确实在成本和效率上展现出了强劲优势。

在现实世界中,受过专业训练的法律人,他们天然地知道法律意见所具备的严肃后果,因而谨言慎行往往也成为了这个群体的专业标签。但与此相反,大语言模型下的AI工具只负责“根据算法给出回答”这一件事,而对于它给出的长篇大论是否正确,它并不在乎,甚至可以说,它不具备“在乎”这项能力。而AI工具这种信誓旦旦的“有问必答”,与法律人士瞻前顾后的“稳妥建议”相比,自然就更容易获得普通大众,乃至法律行业专业人士的青睐。

Q2

有人说利用大语言模型创造的“人工智能法官”会比人类法官更加客观公正,应当如何看待这个问题?

 

答:

自从人类社会分化出法官这一职业以来,对于法官的“人类特性”予以摒除的设想就从未停歇。德国社会学家马克思·韦伯所提出的“自动售货机法官”设想中,当事人投进去的诉状和诉讼费,吐出来的则是判决和从法典上抄下来的理由。可能是限于技术的发展,韦伯眼中的法官至少还应当由人类来继续担任,但在如DeepSeek和ChatGPT等大语言模型AI展现出“魔力”后,不少人开始觉得,是否法官可以由AI来担任,从而彻底摒除法官的“人类特性”。

那么,排除人类因素后的“人工智能法官”真的可以实现更佳的正义结果吗?

 

首先,法律据其定义,是以权利义务为内容调整人与人之间关系的行为规范体系。想要总体脱离“人类因素”而适用法律,显然是一项不可能实现的任务。并且,基于大语言模型的AI法官,其训练材料必然来自人类活动中所积累的法律语言素材,势必只能获取素材之中所蕴含的最佳可能性,而无法脱离素材本身而获取某种超然性。若通过算法调整,使AI法官反向避开人类材料所呈现的“人类特征”,那么由此获得的AI法官从概念上并非“避免人类特征”,而会只是“人类之否定”。

即便通过某种途径,实现了“排除个人因素”的AI法官训练,它真的可以实现更佳的正义结果吗?

AI的行为逻辑来源于算法,那么想要让AI法官实现更佳的正义结果,就需要在算法路径中定义何为“正义”并且据此为设定算法参数。但正义,就像是善良、自由、智慧一样,是人类价值体系的造物,并不存在被精确把握、定义和测量的实体。那么,在正义无法被定义和计算的情况下,AI法官又如何实现正义?并且要以比人类法官更佳的方式实现正义呢?

Q3

我们在使用AI生成的作品时,应当防范哪些法律风险?

 

答:

这个问题,可以从AI工具的训练、输出和利用三个方面分别进行分析:

首先是AI模型的训练问题。AI创作工具最大的区别在于其“学习性”。AI模型的产出,通常是基于海量数据训练的结果,而数据训练的对象,则会涉及训练材料作者的权利,从而暗藏了其他创作工具自身不具备的侵权风险。目前,学界对此展开了热烈的探讨,焦点主要集中在合理使用的构成认定方向,不过我国法院暂时还未就此问题形成判例。不过,可以作为参考的是,2025年2月11日,美国特拉华州联邦地区法院作出判决,认定Ross Intelligence公司利用WestLaw法律数据库训练AI法律问答工具的行为构成侵权。

 

文生图案中的图片

其次是AIGC的结果输出问题。尽管AIGC通过“文生图第一案”的示范性司法裁判获取了著作权法的保护可能性,但也正如该裁决所强调的,“(AIGC)是否体现作者的个性化表达,需要个案判断,不能一概而论。” 例如,在广州知识产权法院随后作出的“AIGC平台侵权第一案”中,就树立了“生成式AI服务提供者应采取一定的技术性措施来避免生成与权利人作品实质性相似的图片”的裁判规则,来规制AI工具结果输出侵权的问题。不过,也有学者指出,AIGC的逻辑是基于神经网络深度学习算法,而著作权侵权则是基于人类的经验判断,二者之间存在根本性差异,想要在AI端事先限制侵权结果,目前还不具备技术条件。

 

最后是AI输出结果的利用问题。无论是ChatGPT,还是DeepSeek,这种基于大语言模型的输出结果,都无法避免“一本正经胡说八道”的尴尬情形。根据近期Vectara HHEM人工智能幻觉测试(人工智能“幻觉”,通常是指AI生成的内容与提供的源内容不符或没有意义),市面主流AI推理模型的输出结果仍有3.09%至13.3%不等的幻觉率。比AIGC的胡言乱语更为尴尬的则是AI工具使用者对于AI输出结果不分青红皂白地信任,甚至是迷信。根据当下的立法现状,人类本身仍然是法律责任承担的最终主体,换言之,AI提供错误信息所造成的实际损失,仍然需要由具体的行为人来“背锅”。因此,对于AI工具提供的具体建议,应当严格区分使用场景,切莫不加审视地作为正确答案,盲目地使用在生产生活之中。

Q4

在AI技术日新月异的今天,我们应该如何看待人工智能技术,应该如何与之“和谐相处”?

 

答:

在AI技术真正进入公众视野之前,人们其实已经见识到了人脑与数字系统在信息摄取和储存能力上的巨大差异。即便过目不忘,并且一目十行,人类穷尽一生所摄取的知识,也难以比得过在电脑上花费十分钟“复制、粘贴”所能转移的数据。因此,在人工智能作为数字世界的原生居民,在信息的识别、收集和处理上,自然具有人类难以企及的优势。

尽管AI看起来超越了一切人所能达到的知识储备,但是它在数据和性能层面所展现的优越性,是否就是它超越人类的证明,这仍然是值得疑问的。

哲学家的塞尔,提出了“中文屋论证”以捍卫人类在智力活动中的独特之处。在这个论证中,塞尔假设有位不懂中文的人坐在一个封闭的房间内,不断有人向房间内投递用中文写成的指令卡片,房间内的人则需要根据手边的操作手册,根据规则向外投递房间内预先准备好用中文写成的答案卡片。在外部视角观察,这个“房间”完成了对于中文的理解、判断和处理,但实际上,房间中的人却完全不具有中文的任何知识。

塞尔的论证,很好地预言了或者说启发了当今大语言模型AI的运作方式。AI通过对海量文本数据进行训练,使得AI可以由此建立基本分词单位之间的匹配关系,从而实现对于输入语言数据的识别、拆解、匹配、整合和输出,最终使得AI在不真正理解任何一个单词的情况下,迅速且合理地为输入字段匹配到了合适的文字结果。

尽管AI可以高效快捷地收集和产出信息,但AI的信息产出对它而言只是符合算法的数据,它既不能理解其中意义,也不能对其潜在意义承担责任,仍然需要作为数据利用者的我们来对AI输出数据进行理解、审视、判断和利用。

之所以我们觉得AI理解了我们,或者我们理解了AI,那都是因为AI被符合人类阅读和理解规律的方式设计和训练,归根结底,并非是人类和AI达成了理解,而是人类在以一种曲折的方式与彼此穿越时空的互通。

与被创造出的知识总量相比,我们学习速度那么慢,人生却又那么短,宛如浩瀚汪洋之中伶仃漂荡的一叶孤舟。然而技术的进步带给了我们可以自由游弋其中的人造精灵。我们无须对此嫉妒、悲叹、恐惧,甚至迷信,我们当以造物者特有的从容,将这份馈赠转化为继续探寻真理的明镜,泰然自若,扬帆远航。

未来已来,但司法的温度,永远需要人类守护。