点击上方“中国政法大学学报”关注我们
转载时烦请注明“转自中国政法大学学报公众号”字样
+
人工智能驱动数字检察的挑战与变革

【作者】谢登科,法学博士。现为吉林大学理论法学研究中心教授、博士生导师,吉林省人民检察院、吉林大学研究中心研究员。
【来源】《中国政法大学学报》2023年第6期“公法视点”栏目。为方便阅读,已略去原文注释。
随着大数据、人工智能、区块链等信息网络技术的发展与应用,我国各级检察机关正逐步将信息网络技术引入法律监督工作之中,实现了由被动化、碎片化、浅层化的传统法律监督模式向主动化、整体化、深层化的数字法律监督模式转型与变革。数据是数字经济时代的“石油”,人工智能则是数字经济时代的“马达”,两者在数字检察中的地位和功能亦是如此。当下,人工智能发展已进入黄金期,其广泛应用于汽车、医疗、金融、工业生产、航空航天等领域,特别是以 ChatGPT 为代表的生成式人工智能正处于蓬勃发展时期,逐步在检索、咨询、翻译、文案等领域得以使用。数字检察的推进与发展,自然也离不开人工智能的应用。人工智能在数字检察的应用,不仅会产生“智能检察权”等新型权力行使形态,也会带来法律制度的重大变革。人工智能在数字检察中承担何种功能?其在数字检察中的应用会对法律制度产生何种冲击?如何回应或消除人工智能应用于数字检察对现有检察制度产生的冲击?这就成为人工智能在数字检察中应用所面临的问题。因此,本文拟尝试对上述问题予以探讨和研究。
一
数字检察的本质属性
二
人工智能在数字检察中应用的冲击与挑战
人类社会已经进入以“物联网”为代表的第四次工业革命时代,很多物品都可以和网络连接,其在使用中会产生海量数据的积累和流动,这就需要人工智能对海量数据进行分析。第四次工业革命的重要特征,就是人工智能的广泛使用。在数字检察中,作为法律监督对象的相关案件信息会以数字形式呈现,数字检察在运行中也会产生并积累海量数据,这就需要在数字检察中引入人工智能,需要人工智能对海量检察数据进行分析、处理。当下用于数字检察的人工智能,主要是学习型智能体,它们可以在最初未知的环境中运行,并变得比其最初输入信息可能允许的能力更强。让人工智能分担检察官的部分工作,就意味着人工智能实际上成为了“AI 检察官”。从信息控制论的角度来看,检察官办理案件的过程,本质上就是案件信息输入并经检察官大脑处理后到案件结果输出的过程。在数字检察中,案件信息通常会以 0-1 数字化形式输入电脑,经过电脑处理后给出相应的输出结果。由人工智能来处理数字检察中的相关案件信息,并不能简单地等同于由计算机来处理案件信息。此问题涉及计算机和人工智能的关系。虽然人工智能的运行离不开计算机,计算机的存储能力、运算能力等功能的飞速发展,会大幅助推人工智能发展,但人工智能并不等同于计算机。人工智能在本质上可以理解为“虚拟机”,人的大脑在本质上也是一种“虚拟机”,它们和现实的机器并不相同,人们不仅可以利用虚拟机完成系统内任务,还可以很好地完成各种外部任务,“虚拟机”作为信息处理系统包含了各个层级的信息处理模式。数字检察中应用人工智能进行法律监督时,需要将作为法律监督对象的案件材料予以数据化处理,或者其本身就已经是数据。比如绍兴市人民检察院“民事裁判文书智慧监督系统”,就是以网络上已公开的裁判文书作为法律监督的信息数据来源。
从人工智能的迭代发展来看,当下数字检察中使用的人工智能尚未达到独立思考、独立处理案件的程度。根据人工智能是否具有独立意志、是否可以在设定程序范围之外自主决策为标准,可以将其区分为弱人工智能和强人工智能。弱人工智能(Weak AI),也被称为专用人工智能(Artificial Narrow Intelligence,即 ANI),它们并不具有自主意识,其行为通常体现了设计者的意愿,且仅能在设定程序领域内运行和决策,无法对设定领域外事项进行决策。专用人工智能通常在某一方面具有较强的自动处理能力,比如在围棋比赛中战胜人类冠军的人工智能阿尔法狗(AlphaGo),它在围棋方面具有超人能力,但并不具备其他方面的决策处理能力。强人工智能(Strong AI),也被称为通用人工智能(Artificial General Intelligence,即 AGI),它们可以像人类一样独立地思考,具有独立自主意志,可以在设定程序范围之外进行决策。现阶段人工智能发展主要处于弱人工智能时代,当下数字检察中主要采取弱人工智能或者专用人工智能,其通常仅能应用于某类或某几类检察业务。比如绍兴市人民检察院“民事裁判文书智慧监督系统”,就属于弱人工智能或者专用人工智能,其仅能用于通过民事裁判文书来挖掘、发现法律监督的相关线索。当下数字检察中的人工智能,除了其适用的法律监督业务类型相对较窄之外,很多方面也还需要借助于人工参与或介入,比如需要检察官对法律监督数据进行要素标注,需要检察官结合其法律知识和办案经验有针对性地进行标识,人工智能则主要依据相关标识对信息数据进行关联分析、深度挖掘从而发现法律监督线索。虽然个别法律监督模型设置了机器自动标识,但仍然需要以检察官人工审查确定为主。绍兴市人民检察院“民事裁判文书智慧监督系统”,就采取此种“人机结合”方式来识别法律监督线索。
2022 年底,美国 Open AI 公司发布的生成式人工智能 ChatGPT,引发了社会各界广泛关注和热议。ChatGPT 于 2022 年 11 月 30 日正式上线,仅 5 天时间其用户数量就突破了 100 万,不到两个月,用户数量就突破了 1 亿。ChatGPT 属于生成式人工智能(Generative AI),它可以通过深度学习来生成与训练数据完全不同的新数据,其主要采取生产式预训练模型(Generative Pre-Training,即 GPT)。传统的人工智能大多数属于分析式人工智能(Analytical AI),它们主要是通过对数据深度学习,在此基础上形成对数据的分析、预测、处理能力,帮助用户做出决策。现有数字检察中使用的人工智能主要是分析式人工智能,它们通过对法律监督信息数据的分析处理来帮助检察官处理案件。不过,随着 ChatGPT 在发展和应用中表现出的优越创造力、多场景可适用性等优势,生成式人工智能也越来越被人们所重视,未来它也有可能会应用于数字检察之中。有观点认为生成式人工智能具有“通用目的技术”(General Purpose Technology,即 GPT)所要求的普遍适用性、进步性以及创新孕育性等特征,而不是专项目的技术(Specific Purpose Technology,即 SPT),基于上述特征,生成式人工智能正在成为一种“通用人工智能”。但是,作为通用目的技术的生成式人工智能,也并不属于强人工智能或者通用人工智能(AGI),它是介于弱人工智能与强人工智能过渡阶段的中间形态。随着生成式人工智能的发展应用及其配套基础设施的逐步建成,数字检察也可能会引入生成式人工智能,此时人工智能在数字检察中的功能定位就不再局限于挖掘、分析案件线索,其可以自主形成对案件的初步处理结果。数字检察中就会呈现由弱人工智能法律监督向强人工智能法律监督过渡的中间形态,此时检察权的运行方式可能会面临深刻挑战与危机:
首先,人工智能法律监督的主体合法性危机。检察院作为我国的法律监督机关,其在行使法律监督职权过程中应当做到“打铁还需自身硬”,应当严格按照法律规定的条件、范围、方式等来开展法律监督,其自身应当成为恪守法律的表率与楷模。我国《刑事诉讼法》第 8 条就规定了检察院应当“依法”对刑事诉讼实行法律监督,这里的“依法”包括了主体合法、程序合法、实体合法等多层面的合法性要求。在使用生成式人工智能来实施法律监督时,可能会面临合法性危机,比如主体合法性问题。生成式人工智能具有一定的独立自主意志,可以在深度学习的信息数据之外进行决策,由其替代或部分替代检察官在案件办理中做出相关处理意见,或者其出具的意见成为检察院就案件处理做出正式决定的主要依据,就可能会面临主体合法性问题。这里的主体合法性危机可以分为两个层面:①人工智能是否属于“人”;②数字检察中的人工智能是否属于“AI 检察官”。这两个问题在哲学、伦理学、法学等层面尚未有定论,在现有法律中更是欠缺相应规定。若仅从功能角度来看,生成式工智能在深度学习了人类的法律知识和办案经验后,在胜任案件处理方面似乎已经不存在技术障碍。比如根据 Open AI 公司公布的相关报告显示,ChatGPT-4 参加总分值为 400 分的美国律师执业资格考试,其得分为 298 分,已经超过了 90% 的人类考生成绩。按照图灵测试的标准,ChatGPT-4 显然已经能够成为独立思考、独立处理法律问题的“法律人”。有观点认为:“ChatGPT 所具备的模仿能力和思维逻辑、理论常识,即使在专业人员眼中都显得博学和专业。”若仅从专业知识和实践经验的深度学习和具体应用来看,生成式人工智能似乎能够胜任检察官工作。当然,除了对法律知识和实践经验的深度学习训练外,生成式人工智能还具有人类检察官所不具有的很多其他优势,比如学习进化速度快、不受情绪影响等,这些特征可能更有利于保障法律监督的统一性和公正性。但是,图灵测试仅是技术层面的认定方法或者标准,数字检察中的人工智能是否可以成为“AI 检察官”,还涉及深层的哲学、伦理学等问题,其在法律层面的核心问题,主要是法律是否承认人工智能具有人的主体资格和检察官的法律地位。
其次,对生成式工智能进行深度学习训练时会使用海量数据,存在侵犯公民隐私权和个人信息权益的合法性危机。人工智能的核心问题是数据问题,正是由于对海量数据的深度学习训练,才能让机器完成过去只有人类才能完成的工作,此即“数据驱动”方法,随着数据体量的积累和提升,机器会变得越来越智能。在 GPT 的迭代发展中,其数据训练体量和数据需求会急剧增长。2018年 6 月,GPT-1 的数据训练量为 1.1 亿条;到 2019 年 2 月,GPT-2 的数据训练量则达到了 15 亿条;2020 年 5 月,GPT-3 的数据训练量则达到 1750 亿条,后来 Open AI 公司又增加了训练的数据量形成 GPT-3.5,并在此基础上最终训练出 ChatGPT。生成式人工智能深度学习训练中对海量数据的收集、使用,既会在数据收集中面临来源合法性的问题,也会在数据深度学习训练中面临因信息数据聚合处理而可能产生非法侵犯个人隐私或者个人信息权益的合法性问题。如前所述,检察机关法律监督的对象是人的涉法行为,在数字检察中需要收集海量涉法行为的信息数据,这其中就包含着海量个人信息,通过数据信息的行为关联性来检索到特定个人信息后,检察机关才可以开展有效法律监督。以检察机关对诉讼活动的法律监督为例,检察机关需要收集海量裁判文书,裁判文书中不仅记载了证据材料、案件事实、法律适用、裁判结果等内容信息,也记载了当事人甚至其他诉讼参与人的姓名、年龄、住址、出生日期、联系方式、婚姻状况、医疗信息、银行账户等个人信息。这些信息数据中既有一般个人信息,比如个人的姓名、年龄等信息,也有敏感个人信息,比如个人的婚姻状况、财产状况等信息。在数字检察中引入人工智能时,需要收集海量信息数据用于人工智能的深度学习训练。生成式人工智能通过算法程序处理个人信息后进行自动化决策。无论是敏感个人信息的收集、处理,还是利用个人信息进行自动化决策,我国现有法律都有较为严格的规制。以敏感个人信息为例,《个人信息保护法》第 29 条要求处理敏感个人信息应当征得个人单独同意,这里的“单独同意”既可以对信息权主体起到警示、提醒作用,让个人充分认识到自己的敏感个人信息将被处理,促进个人谨慎考虑并决定是否同意他人对其敏感个人信息的处理,也提高了对个人信息处理者的义务要求,使其认识到自己在敏感个人信息处理中负有更高的法律义务,从而更好地实现对敏感个人信息的保护。若是严格遵守《个人信息保护法》的上述规定,在使用裁判文书等信息数据对生成式人工智能进行深度学习训练,就需要征得敏感个人信息主体的单独同意,这将会大幅降低生成式人工智能训练的学习效率和数据体量,从而降低人工智能的准确程度和智能化程度。另外,在海量信息数据处理中征得每个信息主体的单独同意几乎不具有现实性和可操作性,但若不征得个人单独同意就直接使用承载着敏感个人信息的裁判文书来训练生成式人工智能,则会让数字检察面临侵犯公民隐私权和个人信息权益的合法性危机。
再次,生成式人工智能对未经深度学习训练的领域,缺乏灵活变通的处理能力,很容易形成不可靠、虚假的输出信息,从而产生内容合法性危机。检察机关开展有效法律监督的重要前提是正确认定事实和适用法律,否则就可能会因认定事实错误或适用法律错误而降低法律监督的合法性和权威性。生成式人工智能虽然可以快速、高效地处理多样化任务,但其准确性仍然在很大程度上取决于其受训的数据体量和范围。对于超出其深度学习训练范围之外的领域,生成式人工智能很容易出现不可靠的、虚假的、伪造的输出信息。比如近期发生的罗伯托·马塔(Roberto Mata)诉阿维安卡(Avianca)航空公司案中,原告方马塔的代理律师史蒂文·施瓦茨(Steven A. Schwart)在向法官提交的一份代理意见书中引用了六个类似案例及其判决结果,并详细列举了该六个案例的法院、法官、案件号、日期等信息,也向法院提交了这六个案例的完整判决。但是,阿维安卡公司的律师经检索后查找不到这六个案例的相关信息,便对这些案例的真实性提出质疑。法官对此大为震惊并就处罚施瓦茨律师举行听证会。在听证中,施瓦茨律师承认该 6 个案例为 ChatGPT 所提供,他是首次使用 ChatGPT 协助自己办案,没有意识到 ChatGPT 给出的案例内容存在伪造的可能性,并表示愿意承担相关法律责任,承诺今后若未经完全核实将不会使用 ChatGPT 自动生成的相关意见。该案中出现 AI 伪造裁判的重要原因在于,ChatGPT 本质上仅是语言预测模型,它仅能根据输入的内容信息符号来预测并输出相应内容信息符号,并不能真正理解其输出信息的内容和意思,这就可能导致在自身没有发觉的情况下而生成某些违背常识的虚假或伪造信息。ChatGPT 输出信息的质量,在很大程度上取决于其深度学习训练的数据体量、质量和范围。在信息网络时代,科学技术和数字经济正在飞速发展,很容易出现以前未曾出现的新型案例、事件,在欠缺及时、充足数据进行深度学习训练的情况下,生成式人工智将无法正确、有效处理此类新型案例。若仅仅依据生成式人工智能来开展数字检察,很容易出现法律监督工作的错误,从而损害法律监督工作的权威性与合法性。
最后,在数字检察中引入人工智能、大数据分析等信息网络技术,可能会加剧诉讼两造对抗的不平等性,从而引发减损或者阻碍正当程序的合法性危机。检察院既是我国的法律监督机关,也是我国的公诉机关,其很多法律监督活动需要通过作为诉讼活动的公诉、抗诉等方式来实施,比如对生效错误民事或行政裁判的抗诉、对犯罪嫌疑人的犯罪行为提起公诉、对侵犯社会公共利益的违法活动提起公益诉讼等。在诉讼活动中,检察院既是代表国家行使法律监督权的专门机关,也是诉讼构造中的一方主体。诉讼活动遵循“法院居中裁判、两造平等对抗”的基本要求和规律。在检察院通过提起公诉、抗诉等方式进行法律监督的过程中,也应当遵循正当程序的基本要求。在数字检察中引入人工智能、大数据分析等信息网络技术,可能会导致刑事诉讼中本就处于天然失衡状态的控辩双方力量更加失衡。生成式人工智能具有数据密集性、资本密集性的特征,比如微软公司对 OpenAI 的前期投资就高达数百亿美元。人工智能所需的巨额开发投资费用显然是个人或者中小企业所无力承担的。人工智能深度学习训练需要海量数据,控辩双方在数据获取能力、数据分析能力等方面也存在巨大差异。在数据获取上,控辩双方既有经费资源、技术知识等差异所产生的不平等,也有相关政策基于数据安全等原因而设置的取证权限差异。在数字检察中,出于数据安全、信息保护等因素考虑,检察机关开发建设的相关智能化法律数据平台通常仅限于内部使用,或者仅对公安机关、法院开放权限,而并不对普通社会公众开放,作为诉讼相对方的被追诉人及其辩护人通常也无权直接获取、查阅。虽然我国现有《刑事诉讼法》《民事诉讼法》等法律中规定了阅卷权、证据交换等制度,但相对方仅能通过阅卷、证据交换获得人工智能最终生产的意见或信息,而无法有效获取、分析形成这些意见材料背后的基础性数据,由此就可能会导致诉讼两造对抗失衡,从而引发减损正当程序的合法性危机。
三
人工智能在数字检察中应用的变革与发展
人工智能作为信息网络技术和数字经济发展的时代产物,其在数字检察中的应用,顺应了时代发展的潮流和趋势。人工智能在赋能数字检察发展的同时,也引发了检察机关法律监督权运行方式的合法性危机与挑战。因此,有必要对人工智能在数字检察中的应用予以准确定位,厘清其在数字检察中使用的边界和范围。
首先,人工智能在数字检察中仍然应当定位为辅助功能,而不能替代人类成为检察官。在数字检察中,由于人工智能的参与和介入,已经初步形成检察官与人工智能协同开展法律监督工作的格局。在此种协同法律监督的格局中,需要厘清检察官与人工智能的各自业务范围和职能定位。按照我国现行法律规定,法律监督的主体是代表检察院行使国家法律监督权的检察官,人工智能仅仅是检察官的“辅助者”,它可以从案件线索挖掘、法律(案例)检索、文件要素自动生成、案件处理结果预测、案件卷宗自动生成等方面辅助检察官来行使法律监督权,让检察官从重复性、琐碎性、辅助性事务中解脱出来,将主要精力更好地集中于法律监督的核心业务之中,比如审查起诉的最终决定、审查批捕的最终决定、公诉案件的出庭诉讼等检察工作。这些法律监督的核心业务,就仅能由检察官来依职履行,而不能交由人工智能完成。检察官和人工智能各有优长。人工智能在海量法律信息数据面前,可以不分昼夜、不知疲倦进行挖掘和分析工作,还可以通过对数据关系的客观分析呈现出预设问题之外的案件线索,发现不同要素之间的关联性,甚至可能会为案件办理提供新的思路或视角,但其缺点主要是灵活性不足。检察官在法律信息数据面前可以迅速调动其自身储备的专业知识和实践经验,可以在案件办理中发挥自己的主观能动性和灵活性,发现事前没有纳入预案之中的研究重点和办案方法。基于检察官和人工智能在法律监督业务中的各自优长,在数字检察中应当形成“人机协同、人主机辅”的检察官与人工智能法律监督业务分工格局。
其次,在数字检察中对生成式人工智能深度学习训练的信息数据收集处理,应当以不侵犯公民隐私权和个人信息权为限度。《个人信息保护法》虽然以保护个人信息权益为主要目的,但也允许个人信息在合理范围内流动和使用。在数字检察中,对于生成式人工智能的深度学习训练所需信息数据,主要有以下途径来防范公民个人信息权益的侵犯:①基于取得个人信息权人的“知情 - 同意”而将承载个人信息的法律文书等数据用于生成式人工智能深度学习训练。此种途径充分尊重和保障了个人的信息处分权,但是其耗费成本巨大,因为人工智能深度学习训练通常需要海量数据,单独取得每个信息权人同意并不现实,也不具有可行性。②使用特定类型的信息数据对生成式人工智能进行训练学习。此类特定的信息数据通常是公开的个人信息。我国《个人信息保护法》允许在合理范围使用公开的个人信息,对于公开的个人信息收集、使用,原则上无需征得信息权利人同意。因为信息权人自行公开或者同意他人公开自己的个人信息,通常意味着其同意让他人获取并使用该个人信息,他人在合法范围内使用该个人信息,自然无需另行征得其同意。在数字检察中,生成式人工智能对信息数据的深度学习训练,是为了检察机关更好地开展法律监督活动,其属于对公开个人信息在合理范围内的使用。但是,公开的信息数据体量相对有限,而且公开个人信息可能会面临“选择性公开”的问题。比如我国裁判文书网上公开的裁判文书,各级法院并不会将其审理的全部案件的裁判文书都在裁判文书网上予以公开,他们会基于各种目的而有所选择地公开相应案件的裁判文书。此种“选择性公开”的裁判文书数据,很可能会让生成式人工智能在深度学习过程中形成“算法偏见”,从而导致检察机关无法公正地开展法律监督工作。③对个人信息进行匿名化处理后作为人工智能深度学习训练的素材。这实际上是从技术方案和法律规则的双重角度,对生成式人工智能中的法律问题进行融贯性治理。我国《个人信息保护法》并没有将匿名化个人信息纳入其保护范围,因为匿名化个人信息无法识别特定个人。在数字检察中,可以将匿名化个人信息作为生成式人工智能深度学习训练的素材,比如将裁判文书中记载的个人信息作匿名化处理后,将其作为人工智能学习训练的素材,使用匿名化信息数据来训练人工智能,也无需征得信息权人同意。针对生成式人工智能在深度学习中所产生的侵犯公民隐私和个人信息权益问题,有学者主张用“合成数据”替代“真实数据”来对生成式人工智能进行深度学习训练。但该方法并不妥当,因为合成数据的真实性、可靠性本身存疑,基于“垃圾进、垃圾出”(Garbage in, Garbage out,即 GIGO)的运行规律,将真实性、可靠性存疑的合成数据作为人工智能深度学习训练的素材,会影响人工智能生成信息数据的真实性与可靠性。因此,较为妥当的途径是将匿名化处理后的信息数据作为人工智能深度学习的素材。
再次,对于生成式人工智能就案件处理所形成的法律文书初稿,检察官不能直接将其作为检察机关出具的法律文书,而是需要经过审查确认其真实性与可靠性后才可以作为正式法律文书的基础材料。由检察官对生成式人工智自动输出的法律文书初稿进行审查,既是源于数字检察中检察官与人工智能间“人机协同、人主机辅”的法律监督业务分工格局,人工智能仅是辅助检察官开展法律监督工作,而不能直接、单独地处理案件,最终的法律业务仍然仅能以检察官或检察院名义做出;也源于生成式人工智能在未经深度学习训练的领域,欠缺相关基本常识和灵活应变能力,此时就容易输出错误或者伪造信息。比如在前文所述罗伯托·马塔诉阿维安卡航空公司案中,原告方代理律师就因为轻信了 ChatGPT 给出的六个案例的真实性,对这些案例未作任何审查就直接作为代理意见中的引用案例提交法官,这让该律师可能面临因伪造法律文件而遭受惩罚的风险。在该案中,原告方律师虽然不是故意伪造、编造法律文书或案例,但其由于轻信 ChatGPT 给出案例信息的真实性而没有对 ChatGPT 给出的文书初稿进行审查就直接提交给法庭,他可能会因存在过失而承担相应法律责任。在数字检察中,若检察官对人工智能生成的法律文书初稿不做任何审查就直接予以使用,也不能排除在制作的法律文书中出现法律适用错误、证据分析错误等情形,甚至也可能会出现类似前文案例中伪造法条、伪造案例、伪造证据的情况。在数字检察中,防止此类现象的发生,一方面需要从技术层面及时增加生成式人工智能学习训练的信息数据,提高人工智能输出信息的可靠性与准确性,另一方面则需要在制度层面建立检察官对人工智能生成法律文书等材料的真实性、可靠性审查机制,若在审查中发现有悖于常识的法条、案例、证据等信息,则应当及时核实后予以校正。
最后,在数字检察中引入人工智能、大数据分析等信息网络技术,也应当遵循司法规律和正当程序的基本要求,保障控辩双方的平等参与和对抗。在数字检察中,基于人工智能对大数据分析所形成的相关意见,若该意见成为认定案件事实的证据,则应当基于《刑事诉讼法》及相关司法解释的要求,来保障辩护方对该证据材料的查阅权和开示权。但是,阅卷或证据开示仅能保障辩护方获得人工智能对大数据分析所形成的证据材料,而无法提升其对人工智能证据或大数据证据的分析能力和质证能力。有观点认为:“数据获取能力的平衡主要是针对有利于辩护方的大数据证据,数据分析能力的平衡则主要着眼于强化辩护方对不利于本方大数据证据的分析质证能力,由于大数据的过程性特征,可以通过被追诉人或权利受到干预主体的参与或介入来实现控辩双方对大数据证据质证能力的有效平衡。”该观点根据大数据证据的不同类型而提出实现控辩平等的不同侧重点,无疑具有合理性,但主张通过被追诉人及相关权利受到干预主体的提前参与和介入,来平衡控辩双方在数据分析和质证能力上的不平等,则有待商榷。在缺乏大数据分析、人工智能等专业知识的前提下,被追诉人的提前参与和介入仅能让其了解到大数据证据收集提取的过程信息,而无助于提升其对数据的分析能力和质证能力,且此种取证过程信息通常会在取证过程中同步记载于取证笔录、取证录像等过程证据之中,辩护方完全可以通过事后查阅取证笔录、同步录音录像等资料来知悉大数据收集的过程信息。因此,不宜将被追诉人提前参与或介入作为平衡控辩双方在数据分析和质证能力上不平等的主要途径。对于人工智能、大数据分析等信息网络技术在数字检察中应用可能引发的正当程序危机,仍然需要从技术方案和法律规则两个层面来寻求解决措施。从技术规制层面来看,可以通过在数字检察中引入某些让控辩双方具有平等参与机会的信息网络技术,比如在人工智能检察中嵌入区块链技术,将其收集数据、分析数据等环节的信息数据同步入链存储,通过区块链分布式存储来防止其出现篡改,也为事后追溯查阅、技术性鉴真等提供基础材料。在法律规则层面,则需要完善有专门知识的人和技术调查官制度,将人工智能证据、大数据证据分析质证过程中遇到的技术性障碍或难题,由有专门知识的人作为辩护方的诉讼参与人,辅助被告人、辩护律师对其进行审查分析、质证辩论。另外,也需要引入类似我国知识产权审判中的技术调查官制度,辅助法院对人工智能证据、大数据证据展开有效的审查和认定。
END
中国政法大学学报
长按二维码关注我们
