|
摘要 近年來,以算法、算力和大數(shù)據(jù)為基礎(chǔ)的新一輪人工智能浪潮的興起為建構(gòu)更加完善的人工智能量刑系統(tǒng)帶來了新契機(jī)。人工智能輔助量刑不但能夠提升量刑的客觀性、高效性、精準(zhǔn)性,而且還能夠優(yōu)化量刑的犯罪預(yù)防效果。然而,人工智能輔助量刑系統(tǒng)還處于技術(shù)探索階段,面臨著一系列技術(shù)、法治和倫理上的異化風(fēng)險(xiǎn)等問題。對此,應(yīng)當(dāng)明確人工智能輔助量刑的案件適用范圍,將輕罪案件交由人工智能輔助量刑系統(tǒng)處理,而復(fù)雜的、疑難的、新型的案件由法官量刑。針對人工智能相關(guān)算法決策引發(fā)的一系列問題,設(shè)立算法審查委員會對量刑的算法系統(tǒng)展開審查;建立完善的案例篩選和公開制度;應(yīng)用相關(guān)技術(shù)手段,以技術(shù)治理技術(shù),有效地提升人工智能量刑算法的公正性和可靠性。保障當(dāng)事人的訴訟權(quán)利,賦予當(dāng)事人知情權(quán)、選擇權(quán)、算法解釋權(quán);發(fā)揮審級制度的糾偏作用;為當(dāng)事人提供專業(yè)援助,充分保障當(dāng)事人的訴訟權(quán)利。人工智能輔助量刑導(dǎo)致的偏誤,其主要責(zé)任法院承擔(dān),從而提升擔(dān)責(zé)機(jī)制的合理性。 關(guān)鍵詞:人工智能;輔助量刑;量刑規(guī)律;算法規(guī)制 隨著大數(shù)據(jù)、云計(jì)算、深度學(xué)習(xí)等技術(shù)取得突破性發(fā)展,人工智能開始被應(yīng)用于教育、醫(yī)療、政府治理等領(lǐng)域,從而為這些領(lǐng)域的智能化轉(zhuǎn)型提供了強(qiáng)勁的驅(qū)動力。受此影響,人工智能開始介入司法裁判領(lǐng)域,其被視為提升司法裁判高效性、公正性和透明性的技術(shù)變革手段。利用人工智能系統(tǒng)展開量刑無疑是人工智能介入司法裁判領(lǐng)域最具代表性和挑戰(zhàn)性的改革嘗試:一方面,人工智能量刑具有結(jié)構(gòu)化、可計(jì)算的特質(zhì),其通過量化賦值展開決策的技術(shù)特征具有天然的契合性,被認(rèn)作是司法人工智能技術(shù)應(yīng)用的主要突破領(lǐng)域;另一方面,量刑不但關(guān)系到被告人的人身自由、財(cái)產(chǎn)等基本權(quán)利,還關(guān)系到人權(quán)保障、社會穩(wěn)定等與國家長治久安密切相關(guān)的重大問題,呈現(xiàn)出高度的專業(yè)化和嚴(yán)肅化特質(zhì)。因而,將人工智能應(yīng)用于量刑領(lǐng)域也是充分考驗(yàn)人工智能的科學(xué)性、穩(wěn)定性與可信賴性。 我們分析相關(guān)研究發(fā)現(xiàn):一方面,絕大多數(shù)學(xué)者的關(guān)注焦點(diǎn)都集中于人工智能在司法領(lǐng)域的運(yùn)用這一相對宏觀問題層面,僅將人工智能輔助量刑問題作為整體分析的簡單例證。這樣的分析顯然無法幫助我們較為深入和精準(zhǔn)地把握人工智能輔助量刑的特質(zhì)及其實(shí)際應(yīng)用中所面臨的具體困境。另一方面,少數(shù)專門研究人工智能輔助量刑的文章往往關(guān)注人工智能輔助量刑在某一具體方面的問題,如違背程序正當(dāng)性要求、量刑系統(tǒng)應(yīng)用邊界如何設(shè)定、與人類法官的主體性沖突等。由于這些研究沒能從可信賴角度系統(tǒng)審視人工智能輔助量刑的意義與風(fēng)險(xiǎn),因而,所提出的應(yīng)對人工智能輔助量刑風(fēng)險(xiǎn)的方案往往缺乏全面性和可行性。鑒于此,本文從量刑這一典型的司法人工智能決策領(lǐng)域入手,系統(tǒng)研究人工智能輔助量刑可能發(fā)揮的空間與發(fā)展瓶頸并努力提出具有針對性、系統(tǒng)性和全面性的應(yīng)對方案,從而希望能夠?yàn)槿斯ぶ悄茌o助量刑的良性發(fā)展提供有益的路徑引導(dǎo)。 一、人工智能輔助量刑的正向效應(yīng) 早在2004年左右,我國山東淄博、江蘇姜堰等地區(qū)法院就開始探索使用電腦輔助量刑以規(guī)范法官的量刑活動。彼時(shí)的電腦量刑系統(tǒng)通過以代碼復(fù)刻法律規(guī)范中相應(yīng)量化指標(biāo)的方式建構(gòu)量刑模型,并將這一模型用于待決案件,以此實(shí)現(xiàn)自動量刑的目的。但是,這種單純復(fù)述規(guī)則的量刑系統(tǒng)無法有效應(yīng)對法律概念、規(guī)則和原則的開放性、歧義性、流動性,以及量刑情節(jié)的多樣性、新穎性、變動性,最終因過于機(jī)械化的電腦量刑嘗試逐漸走向沒落。近年來,以算法、算力和大數(shù)據(jù)為基礎(chǔ)的新一輪人工智能浪潮的興起為建構(gòu)更加完善的人工智能量刑系統(tǒng)帶來了新契機(jī),人工智能量刑系統(tǒng)建構(gòu)路徑的基本原理是通過神經(jīng)網(wǎng)絡(luò)技術(shù)和深度學(xué)習(xí)技術(shù)對海量的裁判文書展開深度學(xué)習(xí),發(fā)掘文書中法官量刑的規(guī)律,并以此為基礎(chǔ)建構(gòu)用于對待決案件展開量刑的決策模型。在這一系統(tǒng)建構(gòu)完成后,設(shè)計(jì)者還會通過實(shí)踐調(diào)試以及輸入新的數(shù)據(jù)集的方式,不斷更新迭代算法的運(yùn)算邏輯,從而提升人工智能量刑系統(tǒng)量刑結(jié)論的準(zhǔn)確性和可靠性。實(shí)踐表明,人工智能量刑系統(tǒng)在提升量刑的中立性、高效性、精準(zhǔn)性等方面優(yōu)于法官量刑,這些優(yōu)勢表現(xiàn)在以下三方面: 其一,人工智能量刑能夠有效提升量刑的中立性和客觀性。由于個(gè)案的具體性和特殊性,無論是刑法條文還是量刑規(guī)范,都只能規(guī)定一個(gè)量刑區(qū)間。在這一區(qū)間內(nèi),法官需依照案件的具體情節(jié)展開裁量以確定刑期。由于沒有明確的裁量參照,在具體量刑實(shí)踐中,法官不但容易受到人情、金錢等外部因素的影響,還可能會受到個(gè)體的道德觀念、知識背景、情感偏向等隱性因素的影響,從而做出具有偏向性的量刑抉擇。對此,拉倫茨指出,“對于量刑而言,當(dāng)遭遇司法裁判不確定的法律概念或評價(jià)標(biāo)準(zhǔn)的判斷余地時(shí),法學(xué)的主要任務(wù)之一便是盡量縮小法官決定的空間,也即在此范圍內(nèi),法官只需做出決定”。 人工智能量刑具有自動化的特質(zhì),一旦待決案件信息被輸入,便會以一套事先確定的、經(jīng)過可靠性驗(yàn)證的標(biāo)準(zhǔn)對案件展開自動化量刑。這樣的量刑方式能夠有效杜絕人為干預(yù)司法量刑的可能性,從而以技術(shù)理性規(guī)制了司法自由裁量,保障了量刑的中立性和客觀性。例如,斯凱姆和洛文坎普在對美國用于評估罪犯再次犯罪可能性的人工智能系統(tǒng)(Post Conviction Risk Assessment,PCRA)是否存在歧視現(xiàn)象展開研究后指出,“證據(jù)表明,和具有不透明、不一致、不準(zhǔn)確的人類法官以及已經(jīng)被證明會助長種族歧視的量刑指南相比,PCRA程序不會導(dǎo)致對高風(fēng)險(xiǎn)罪犯判處更多的刑罰。并且沒有任何證據(jù)表明,當(dāng)前讓人類法官抑或通過量刑指南評估再犯風(fēng)險(xiǎn)比應(yīng)用一種經(jīng)過充分驗(yàn)證的、不帶偏見的風(fēng)險(xiǎn)評估工具更加明智和可取”。 方案其二,人工智能量刑具有高效性和精準(zhǔn)性的特質(zhì),能夠有效提升司法量刑的效率和質(zhì)量。對于量刑工作,法官不但需要遵循繁瑣的量刑程序,還需要投入大量的時(shí)間用于重復(fù)性、機(jī)械性的刑期計(jì)算和說明。這不但降低了司法效率,也增加了訴訟參與人員的訴訟負(fù)累。人工智能系統(tǒng)憑借數(shù)據(jù)存儲和算力優(yōu)勢,通過機(jī)器學(xué)習(xí)的方式復(fù)刻規(guī)范化的法官量刑過程,將這一模型應(yīng)用于待決案件,可以在短時(shí)間內(nèi)自動得出量刑結(jié)論,有效提升司法量刑的效率。司法實(shí)踐中,海南高院運(yùn)用“量刑規(guī)范化智能輔助辦案系統(tǒng)”裁判案件和制作法律文書,其數(shù)據(jù)表明,這一系統(tǒng)將15家試行法院量刑規(guī)范化案件的裁判時(shí)間縮減了約50%,程序性法律文書的制作時(shí)間更是縮短近90%。 人工智能在實(shí)現(xiàn)高效性的同時(shí),還憑借其科學(xué)化量刑的優(yōu)勢,保障量刑的確定性和精準(zhǔn)性。司法實(shí)踐中,刑期往往不是根據(jù)單一的情節(jié)確定的,而是多種量刑情節(jié)綜合考量的結(jié)果。限于立法的概括性、簡潔性和包容性,其只能列舉出單一的量刑情節(jié)區(qū)間,而不可能對海量的量刑情節(jié)組合作出規(guī)定。規(guī)則的真空決定了法官的量刑多是一種具有模糊性的估堆行為,法官在自由裁量活動過程中充滿隨意性和偶然性,由此造成具體刑期的不確定。人工智能系統(tǒng)的量刑邏輯是依靠強(qiáng)大的算法和算力,對裁判文書海量數(shù)據(jù)展開深度學(xué)習(xí),并通過多元線性組合模型的建構(gòu),全面考量各量刑情節(jié)在量刑結(jié)果中應(yīng)當(dāng)占有的比重。在此邏輯下,人工智能系統(tǒng)能夠精確量化被告人犯罪行為和刑期之間的關(guān)系,從而有效避免法官估堆量刑的不確定性和非理性化風(fēng)險(xiǎn)。例如,白建軍以十四萬余份的道路交通肇事案件為樣本,利用多元線性回歸法建構(gòu)了法定量刑情節(jié)與量刑結(jié)果之間關(guān)系的統(tǒng)計(jì)模型,其結(jié)果表明,這一關(guān)系模型可以有效預(yù)測具有多個(gè)法定量刑情節(jié)的交通肇事案件的量刑結(jié)論,其將量刑的確定性由原來的30.5%大幅提升到了73.4%。 其三,人工智能量刑具有預(yù)測性,可以有效發(fā)揮量刑在實(shí)現(xiàn)一般預(yù)防與特殊預(yù)防中的作用,從而降低羈押率和犯罪人的再犯風(fēng)險(xiǎn),減少社會相關(guān)犯罪行為發(fā)生的概率。對于特殊預(yù)防,法官不但需要考察犯罪人犯罪前后的相關(guān)表現(xiàn),還要考慮其人格、知識水平、家庭狀況等因素;對于一般預(yù)防,法官則需要關(guān)注量刑是否能夠有效抑制民眾對相關(guān)犯罪行為的模仿心理、能否實(shí)現(xiàn)民眾對法律規(guī)范的信賴感和對犯罪報(bào)應(yīng)的滿足感最大化。司法實(shí)踐中,由于刑事司法的被動性、司法資源的匱乏性、法官認(rèn)知的有限性以及司法裁判的時(shí)效性,法官往往很難全面發(fā)掘、科學(xué)評估與犯罪人的人身危險(xiǎn)性相關(guān)材料,也無法獲得和參照“刑期輕重與一般預(yù)防效果之間相關(guān)關(guān)系”的科學(xué)模型,因而多數(shù)情況下法官只能憑借經(jīng)驗(yàn)展開模糊量刑,這就容易造成量刑的不確定性,進(jìn)而削弱量刑的預(yù)防效果。 隨著信息社會的到來以及人工智能技術(shù)的發(fā)展,人工智能輔助量刑算法能夠?qū)α啃虒ο笳归_全面和深入的數(shù)據(jù)追蹤,并依照這些數(shù)據(jù)科學(xué)評估量刑對象的犯罪行為、生活環(huán)境等可能影響其人身危險(xiǎn)性的數(shù)據(jù)信息,從而做出綜合研判,確定合理的量刑結(jié)論。同時(shí),人工智能算法還可以依照大數(shù)據(jù)建立刑期區(qū)間和社會犯罪率之間的關(guān)系模型,從而劃定不同犯罪的合理量刑區(qū)間,最大限度地提升量刑的一般預(yù)防效果。當(dāng)前以再犯風(fēng)險(xiǎn)評估算法為代表的量刑風(fēng)險(xiǎn)精算預(yù)測模型已經(jīng)被應(yīng)用到許多國家的輔助量刑工作之中,實(shí)踐表明其對于預(yù)防犯罪的發(fā)生具有積極效果。例如,伯克、索倫森等人使用一種隨機(jī)森林算法對28 646起因家庭暴力被指控和保釋的罪犯在未來兩年內(nèi)是否可能實(shí)施新的家庭暴力犯罪展開預(yù)測。結(jié)果表明,依照現(xiàn)行做法,在獲釋的人中,約有20%會在兩年內(nèi)因新的家庭暴力犯罪而被捕。如果使用目標(biāo)算法,只釋放那些預(yù)計(jì)在兩年內(nèi)不會因家庭暴力被捕的罪犯,那么失敗率可以減少近一半,也即可以避免超過2 000起家庭暴力再次犯罪案件。 二、人工智能輔助量刑的異化風(fēng)險(xiǎn) 當(dāng)前,人工智能相關(guān)技術(shù)在司法領(lǐng)域的發(fā)展和應(yīng)用還處于探索階段,其在提升量刑的中立性、高效性、精準(zhǔn)性帶來變革性契機(jī)的同時(shí),也面臨著一系列技術(shù)、法治和倫理上的異化風(fēng)險(xiǎn)。由于量刑關(guān)系到被告人的基本權(quán)利以及社會的長治久安等重大問題,因而,我們有必要細(xì)致梳理人工智能輔助量刑的相關(guān)風(fēng)險(xiǎn),從而為提出具有針對性和可行性的應(yīng)對方案奠定基礎(chǔ)。 (一)人工智能輔助量刑的技術(shù)困境 1.人工智能量刑系統(tǒng)受裁判文書的全面性和優(yōu)質(zhì)性影響 作為人工智能量刑系統(tǒng)建構(gòu)的基礎(chǔ)性資料,裁判文書的數(shù)量和質(zhì)量直接關(guān)系到量刑系統(tǒng)建構(gòu)的科學(xué)性和可靠性。然而,當(dāng)前相關(guān)裁判文書的全面性和優(yōu)質(zhì)性卻無法得到有效保障,究其原因有三方面: 首先,人工智能量刑的精準(zhǔn)性和所學(xué)習(xí)的大數(shù)據(jù)樣本數(shù)量息息相關(guān),“喂養(yǎng)”人工智能系統(tǒng)的裁判文書越全面,人工智能系統(tǒng)所能提取的量刑要素就越精細(xì),其量刑結(jié)果也就越精準(zhǔn)。雖然我國裁判文書的公開取得了顯著成績,但是受不同法院的公開意愿、公開能力、公開風(fēng)險(xiǎn)等因素影響,我國裁判文書的公開率總體上并不如意。有學(xué)者統(tǒng)計(jì)了某省各級法院的裁判文書發(fā)現(xiàn),已公開裁判文書占應(yīng)公開文書的比率僅為50%左右,且不同級別法院裁判文書公開率有很大的差異,而比率最低的法院僅為26%。 其次,已公開的裁判文書的質(zhì)量難以得到有效保障。由于裁判文書公開規(guī)定不明確、相關(guān)考核指標(biāo)不科學(xué),以及為了減少政治、輿論、追責(zé)風(fēng)險(xiǎn)等原因,我國已公開的裁判文書存在著選擇性公開、重復(fù)公開、簡化公開,以及有意隱去對酌定情節(jié)考量的相關(guān)內(nèi)容等問題??晒W(xué)習(xí)的裁判文書的隨機(jī)性、重復(fù)性、片面性、偏向性特質(zhì)使得人工智能量刑系統(tǒng)不但無法全面掌握法官的量刑經(jīng)驗(yàn),還有可能被裁判文書誤導(dǎo)而出現(xiàn)選擇性偏誤的風(fēng)險(xiǎn)。 最后,由于地域之間的經(jīng)濟(jì)、政治、文化、習(xí)俗等存在差異,為了保障人工智能量刑系統(tǒng)的區(qū)域適用性,便需要將可供人工智能量刑系統(tǒng)學(xué)習(xí)的裁判文書予以限定。但是,這又會引發(fā)人工智能量刑系統(tǒng)的適應(yīng)性與精準(zhǔn)性悖論:建構(gòu)量刑模型的數(shù)據(jù)來源范圍越小,其量刑結(jié)果越符合本地實(shí)情,這也意味著數(shù)據(jù)的顆粒化程度越低,偏離同案同判目標(biāo)的可能性也就越大。反之,用于建構(gòu)量刑模型的數(shù)據(jù)來源范圍越大,數(shù)據(jù)要素的顆粒化程度就越高,但量刑結(jié)論就越無法兼顧地域差異,便容易造成量刑的系統(tǒng)性偏差。 2.人工智能量刑系統(tǒng)存在量刑不當(dāng)?shù)娘L(fēng)險(xiǎn) 由于關(guān)涉當(dāng)事人的重大利益、社會長治久安以及司法整體公信力的建構(gòu),民眾對于人工智能輔助量刑的結(jié)論正確率要求往往高于人工智能系統(tǒng)在其它領(lǐng)域的應(yīng)用。而與法官基于因果量刑邏輯得出的結(jié)論相比,基于相關(guān)關(guān)系建構(gòu)的人工智能量刑模型在理論上存在更高的決策偏誤風(fēng)險(xiǎn)。維克·托邁爾-舍恩伯格等人指出,由于算法所注重的數(shù)據(jù)和結(jié)論之間的相關(guān)關(guān)系僅僅是人為建構(gòu)的一種認(rèn)知方式,這種認(rèn)知方式會忽略一些與決策相關(guān)的、具有豐富性和偶然性的社會、經(jīng)濟(jì)等因素,從而容易造成算法模型片面地以實(shí)然推測應(yīng)然,根據(jù)過去而預(yù)測將來,最終出現(xiàn)決策疏漏的風(fēng)險(xiǎn)。和人工智能在其它領(lǐng)域的應(yīng)用不同的是,由于量刑領(lǐng)域涉及被告人的人身自由、生命、財(cái)產(chǎn)這些最基本的權(quán)利,因而,無論是對被告人還是社會民眾來說,該領(lǐng)域的容錯(cuò)空間極低。基于統(tǒng)計(jì)學(xué)意義上相關(guān)性概率而建構(gòu)的算法量刑模型并不能保障百分之百的正確率,并且由于人工智能量刑系統(tǒng)自動化和黑箱化的決策特質(zhì),使其存在大規(guī)模量刑不當(dāng)?shù)娘L(fēng)險(xiǎn),而這樣的風(fēng)險(xiǎn)顯然是社會民眾難以接受的。 (二)人工智能輔助量刑的司法難題 1.被告人的程序性權(quán)利難以保障 由于算法黑箱的存在,被告人深度參與量刑過程、全面獲取量刑解釋、及時(shí)得到有效救濟(jì)等程序性權(quán)利都會遭受到一定程度的侵害,從而會降低量刑的可接受性。 一方面,人工智能輔助量刑削弱了法官和當(dāng)事人在司法量刑過程中的親歷性,尤其是對于辯護(hù)律師和被告人,他們可能既無法參與相關(guān)證據(jù)的質(zhì)證、對相關(guān)量刑情節(jié)的認(rèn)定工作,也無法就被告人的主觀惡意性、人身危險(xiǎn)性,以及相關(guān)法律條文的理解等和法官展開有效溝通。研究表明,在對司法程序正當(dāng)性的認(rèn)知中,當(dāng)事人對親歷性、過程控制性以及裁決者是否有耐心傾聽的重視程度往往要超越裁決者的中立性。通過人工智能輔助量刑便意味著原有遞進(jìn)式的訴訟程序被階段化量刑結(jié)論取代,進(jìn)而當(dāng)事人和法官之間的聯(lián)系被削弱甚至阻斷。失去了對量刑過程的參與感和控制感,當(dāng)事人對量刑結(jié)論的認(rèn)可性和接受度也將隨之降低。 另一方面,由于算法專業(yè)壁壘和算法黑箱的存在,甚至是算法開發(fā)人員也難以全面和清晰地闡明不斷自我迭代和更新的量刑系統(tǒng)的數(shù)理結(jié)構(gòu)。這就造成缺乏計(jì)算機(jī)相關(guān)知識的法官往往只能告知當(dāng)事人量刑系統(tǒng)得出的量刑結(jié)論,卻無法給出量刑決策的依據(jù)、原理、影響量刑的實(shí)質(zhì)因素等信息。而法治是理由之治,不能展開釋法說理、缺乏可驗(yàn)證性的量刑結(jié)論對于當(dāng)事人往往也是缺乏可預(yù)測性、可信賴性和可接受性的。此外,由于缺乏對量刑結(jié)論的解釋,被告人也無法認(rèn)定相關(guān)判決在事實(shí)認(rèn)定、法律解釋、裁量傾向等方面是否存在問題,進(jìn)而其通過質(zhì)疑人工智能在量刑中存在裁量情節(jié)認(rèn)定不當(dāng)、法律適用畸重而提出上訴、申請?jiān)賹彽全@得有效救濟(jì)的權(quán)利也面臨被架空的風(fēng)險(xiǎn)。 2.量刑權(quán)力的專屬性受到挑戰(zhàn) 采取技術(shù)外包方式建構(gòu)的人工智能量刑系統(tǒng)存在著引發(fā)司法量刑權(quán)被技術(shù)公司俘獲,法官被算法馴服的風(fēng)險(xiǎn)。 一方面,量刑系統(tǒng)的技術(shù)專業(yè)性可能引發(fā)法院無形中將量刑權(quán)力移轉(zhuǎn)給技術(shù)公司的風(fēng)險(xiǎn)。當(dāng)前,諸多法院使用的量刑系統(tǒng)都是采取外包或合作的方式由科技公司建構(gòu)的,如上海刑事審判輔助系統(tǒng)是由上海高院和科大訊飛公司合作開發(fā)的,北京“睿法官”是由北京高院和華宇元典合作開發(fā)的,被數(shù)百家法檢機(jī)關(guān)使用的“小包公”智能定罪與量刑系統(tǒng)則是由廣東博維創(chuàng)遠(yuǎn)科技有限公司聯(lián)合刑事法官、檢察官、人工智能專家等創(chuàng)建的。在創(chuàng)建過程中,科技公司往往會主導(dǎo)量刑變量選取、算法邏輯架構(gòu)、要素量化標(biāo)準(zhǔn)確定甚至裁量浮動比例調(diào)整等工作,并且由于法學(xué)知識和人工智能知識的專業(yè)性和精細(xì)化,這種由于知識體系分野、科技知識滲透以及權(quán)力和知識相互勾連所造成的科技公司無形中獲取司法量刑權(quán)的趨勢在短期內(nèi)將持續(xù)加劇,甚至可能造成科技公司無形中主導(dǎo)司法量刑的局面。 另一方面,受“從眾心理”“認(rèn)知吝嗇法則”“自動化依賴心理”“責(zé)任隔離思維”的影響,法官時(shí)常會過度依賴人工智能量刑系統(tǒng)的量刑結(jié)論,而喪失批判或質(zhì)疑人工智能量刑合理性的能力。研究表明,人類很難擺脫習(xí)慣性依賴機(jī)器決策的心理,“雖然自動化決策系統(tǒng)明確地只被用來作為人類決策的輔助工具,但出于對自動化邏輯的信任、缺乏時(shí)間、追求便利以及推卸責(zé)任等原因,即便參與者明確認(rèn)識到自動化決策系統(tǒng)并不完全可靠,但仍更傾向于遵循自動化決策系統(tǒng)的指令”。雖然當(dāng)前人工智能量刑系統(tǒng)還被定位為量刑輔助的角色,但是這種名義上的“輔助”在實(shí)踐中時(shí)常會異化為實(shí)質(zhì)上的“主導(dǎo)”,人工智能輔助量刑的結(jié)論不但可能會對法官的量刑產(chǎn)生“錨定效應(yīng)”,甚至還可能產(chǎn)生支配風(fēng)險(xiǎn)。然而,司法量刑權(quán)是法院和法官通過民眾和法律授權(quán)獲得的專有權(quán)力,人工智能量刑系統(tǒng)在未經(jīng)過正當(dāng)程序以及法律授權(quán)的背景下,攫取專屬于法院和法官的量刑權(quán)的正當(dāng)性和合法性都將遭受質(zhì)疑和挑戰(zhàn)。同時(shí),并未實(shí)質(zhì)參與庭審的人工智能及其背后的科技公司決定量刑幅度還將違背量刑中的直接原則和言詞原則,其與庭審實(shí)質(zhì)化的改革目標(biāo)是背道而馳的。 3.責(zé)任分配難題 合理的責(zé)任制是保障司法量刑公正性的前提和基礎(chǔ),在完善的司法責(zé)任追究機(jī)制下,法官為了避免因量刑行為違法或不當(dāng)而被追責(zé)的風(fēng)險(xiǎn),往往會努力確保量刑的公正性。當(dāng)引入人工智能量刑之后,原有的責(zé)任承擔(dān)機(jī)制便面臨新的挑戰(zhàn):首先,由于人工智能是否能夠成為法律主體就存在極大爭議,具體到量刑領(lǐng)域,替代法官展開量刑的人工智能系統(tǒng)是否能夠成為量刑違法或不當(dāng)?shù)膿?dān)責(zé)主體問題將伴隨司法人工智能法律主體地位的爭議而持續(xù)存在。其次,由于頂層設(shè)計(jì)的粗疏、具體追責(zé)規(guī)范的缺失等原因,我國現(xiàn)有司法責(zé)任機(jī)制的建構(gòu)和實(shí)施面臨著諸如追責(zé)標(biāo)準(zhǔn)模糊、追責(zé)程序和追責(zé)主體不明確、擔(dān)責(zé)方式繁雜、追責(zé)實(shí)施機(jī)制行政化等諸多難題。在這樣的背景下,人工智能對法官量刑的介入無疑進(jìn)一步加劇了追責(zé)機(jī)制建構(gòu)的復(fù)雜性和爭議性。例如,由于人工智能輔助量刑的專業(yè)性、技術(shù)性和黑箱化,如何發(fā)現(xiàn)并界定人工智能輔助量刑是否存在違法或不當(dāng)?shù)那樾螌⒊蔀殡y題。最后,雖然受制于當(dāng)前人工智能量刑技術(shù)的局限性以及原有司法制度的慣性,人工智能只能為法官提供一些量刑建議。正如上文所指出,實(shí)踐中法官往往會過于依賴人工智能系統(tǒng)提出量刑建議,從而盡量限縮自身的裁量空間以減少量刑出錯(cuò)而擔(dān)責(zé)的風(fēng)險(xiǎn)。當(dāng)面對這種名實(shí)分離的復(fù)雜情境時(shí),無論是法官還是人工智能的開發(fā)者,都將有充足的免責(zé)理由,這無疑進(jìn)一步加劇了責(zé)任界定和分配的模糊性和爭議性。 (三)人工智能輔助量刑的倫理挑戰(zhàn) 1.算法歧視風(fēng)險(xiǎn) 用于量刑的算法系統(tǒng)在建構(gòu)和維護(hù)的過程中難免會受到數(shù)據(jù)和算法設(shè)計(jì)目的的影響而將人類的偏見映射其中,從而造成算法偏離預(yù)設(shè)的客觀中立立場,出現(xiàn)量刑畸輕或畸重的風(fēng)險(xiǎn)。 一方面,由于自身知識結(jié)構(gòu)偏差、個(gè)體內(nèi)在偏見、對司法量刑規(guī)律理解不足等原因,算法設(shè)計(jì)和維護(hù)人員在根據(jù)法院的委托建構(gòu)基礎(chǔ)函數(shù)、對樣本判例相關(guān)要素打標(biāo)簽、修正和優(yōu)化量刑算法模型等的過程中,難免會忽視或強(qiáng)化某些可能影響量刑公正性的因素,最終造成人工智能量刑模型存在歧視少數(shù)群體、弱勢群體等的風(fēng)險(xiǎn)。 另一方面,用于建構(gòu)量刑系統(tǒng)的數(shù)據(jù)本身不可避免地內(nèi)涵人類偏見,受“偏見進(jìn),則偏見出(bias in,bi-as out)”定律的影響,人工智能量刑算法難免會學(xué)習(xí)到內(nèi)含于數(shù)據(jù)集中的人類法官的量刑偏見。法律文書是人工智能量刑系統(tǒng)建構(gòu)的基礎(chǔ)性材料。然而,受法官個(gè)體的年齡、性別、受教育程度、生活環(huán)境,以及被告人的經(jīng)濟(jì)水平、律師的辯護(hù)能力、地區(qū)的法治環(huán)境等因素影響,供人工智能量刑系統(tǒng)學(xué)習(xí)的裁判文書往往會存在一定的歧視傾向,并反映到量刑結(jié)果之中。擁有深度挖掘、要素關(guān)聯(lián)聯(lián)想、數(shù)據(jù)抽象和概括能力的人工智能量刑系統(tǒng)在對這些裁判文書展開學(xué)習(xí)時(shí),便難免會習(xí)得隱含于裁判文書中的歧視因子,從而做出具有歧視性的量刑決策。例如,參考了數(shù)十年相關(guān)量刑案例而建構(gòu)的用來評估被告人再犯風(fēng)險(xiǎn)的COMPAS系統(tǒng)已經(jīng)被廣泛應(yīng)用于美國亞利桑那州、科羅拉州等地法院,以幫助法官決定是否對被告人判處更輕或更重刑罰。而非盈利機(jī)構(gòu)ProPublica在對COMPAS系統(tǒng)展開測試后發(fā)現(xiàn),這一系統(tǒng)存在對黑人再次犯罪的評估中不當(dāng)?shù)亟o出過高分值的風(fēng)險(xiǎn)。 2.價(jià)值判斷難題 在量刑的過程中,無論是對責(zé)任刑中行為人非難可能性的考查,還是對預(yù)防刑中行為人的人身危險(xiǎn)性的判定,都需要裁決者展開一定的價(jià)值判斷。因而,價(jià)值判斷問題是量刑過程中必須要考慮的核心問題之一,而以數(shù)字化的方式還原問題情境的人工智能系統(tǒng)往往難以有效應(yīng)對量刑中的價(jià)值判斷問題。 一方面,量刑主要是為了通過刑罰制裁的方式以實(shí)現(xiàn)懲罰和預(yù)防犯罪的目的。無論是對行為人社會危害性的評價(jià),還是對其人身危險(xiǎn)性的評價(jià),都會涉及到價(jià)值判斷問題,量刑結(jié)論只有充分考量處罰目的和處罰效果,才能夠滿足社會對司法裁判的實(shí)質(zhì)正義訴求。但量刑時(shí)需要考慮諸如社會環(huán)境、情境變遷、文化傳統(tǒng)、犯罪背景、價(jià)值觀念等非規(guī)范性價(jià)值評價(jià)因素具有多元性、流動性、地域性、開放性等特質(zhì),往往難以被人工智能量刑系統(tǒng)予以量化和通約,從而會造成人工智能量刑系統(tǒng)難以處理個(gè)案中特殊的、具體的、豐富的酌定量刑情節(jié),最終造成其無法滿足個(gè)案量刑的實(shí)質(zhì)公正性要求。 另一方面,在對犯罪行為的社會危害性以及行為人的人身危險(xiǎn)性的相關(guān)酌定量刑情節(jié)展開篩選、權(quán)衡時(shí),難免會涉及到價(jià)值選擇和排序問題。但是,由于人工智能量刑系統(tǒng)是通過預(yù)設(shè)價(jià)值排序或復(fù)制人類價(jià)值決斷實(shí)踐經(jīng)驗(yàn)而開展價(jià)值抉擇的,這就決定了其只能處理符合預(yù)設(shè)情境下的價(jià)值排序問題,而無法針對個(gè)案尤其是新類型個(gè)案的具體情境做出具有個(gè)性化的價(jià)值選擇。人工智能量刑系統(tǒng)的這一特質(zhì)就將其可適用范圍限縮在了那些知識結(jié)構(gòu)特定且封閉、是非對錯(cuò)明確、潛在可能單一易辨的刑事案件之中。 三、人工智能輔助量刑異化風(fēng)險(xiǎn)的應(yīng)對方案 面對人工智能輔助量刑應(yīng)用中的諸多新挑戰(zhàn),我們應(yīng)當(dāng)在其尚未形成“技術(shù)鎖定效應(yīng)”之前,積極提出具有針對性、前瞻性、全面性和可行性的風(fēng)險(xiǎn)應(yīng)對方案,從而在最大限度發(fā)揮人工智能輔助量刑正向效應(yīng)的同時(shí),盡可能減少相關(guān)系統(tǒng)落地應(yīng)用可能引發(fā)的危及量刑正義的風(fēng)險(xiǎn)。 (一)明確人工智能輔助量刑案件的適用范圍 鑒于人工智能量刑系統(tǒng)在正確率、責(zé)任承擔(dān)和價(jià)值判斷等方面的不足,有學(xué)者提出將其視為法官量刑的輔助性工具:人工智能系統(tǒng)可以憑借自身技術(shù)優(yōu)勢提出量刑建議,而是否被采納還需要斷案法官做出最后決定。本文認(rèn)為,我們應(yīng)當(dāng)基于當(dāng)前人工智能量刑系統(tǒng)的發(fā)展現(xiàn)狀和改進(jìn)趨勢,為人工智能量刑系統(tǒng)劃定合理的案件適用范圍以及長期發(fā)展的方向,從而最大限度地發(fā)揮技術(shù)革新在提升刑事量刑質(zhì)效中的變革性作用。為此,當(dāng)前我們可以將人工智能輔助量刑適用于那些較為簡單的案件,而復(fù)雜案件則更多地需要交給法官處理。這是因?yàn)椋?/p> 其一,簡單案件往往意味著更少的裁量、更少的價(jià)值判斷、更完善的案卷材料、更低的量刑偏誤風(fēng)險(xiǎn)和更高的民眾接受度。在與法官的量刑相比,機(jī)器決策在保障簡單案件量刑的準(zhǔn)確性方面更具優(yōu)勢。對此,文森特指出,“即便法官相較于機(jī)器能夠做出更加細(xì)致入微且經(jīng)過準(zhǔn)確校準(zhǔn)的裁決,但并非所有的案件,尤其是在較低級別的犯罪中,法官并不愿意投入大量的時(shí)間和注意力以保障決策的準(zhǔn)確性,因而,算法決策在刑事司法中最大的優(yōu)勢就在于提高日常案件決策的準(zhǔn)確性”。 其二,將存在較大爭議、需要展開自由裁量以及價(jià)值判斷的疑難、復(fù)雜、新型案件交由法官處理表明法官的量刑權(quán)并未被算法或技術(shù)公司俘獲。這是因?yàn)槿斯ぶ悄芰啃滔到y(tǒng)處理的簡單案件僅是重復(fù)法官的量刑經(jīng)驗(yàn),而那些涉及規(guī)則發(fā)展、規(guī)則創(chuàng)制以及自由裁量的疑難的、復(fù)雜的、新型的案件則屬于經(jīng)驗(yàn)的創(chuàng)制活動,由法官主導(dǎo)這些案件的處理說明法官仍然掌握刑事量刑權(quán)。 其三,將簡單案件交由人工智能量刑系統(tǒng)處理還能夠有效提升民眾對量刑結(jié)論的接受程度。這是由于簡單案件往往事實(shí)明確、法律清晰,因而發(fā)現(xiàn)人工智能系統(tǒng)量刑的誤差也較為容易,且糾錯(cuò)成本較低。這會降低民眾對人工智能量刑系統(tǒng)黑箱化和大規(guī)模錯(cuò)判的擔(dān)憂,從而提升民眾對人工智能量刑系統(tǒng)高效性和公正性的認(rèn)同感。 在明確了人工智能量刑系統(tǒng)的適用范圍之后,還需要解決如何在具體司法實(shí)踐中區(qū)分出簡單案件和復(fù)雜案件的問題。對此,本文認(rèn)為將認(rèn)罪認(rèn)罰從寬的輕罪案件作為人工智能量刑的主要適用對象是比較合適的,其原因在于:一是從前期試點(diǎn)和當(dāng)前實(shí)踐經(jīng)驗(yàn)來看,認(rèn)罪認(rèn)罰從寬案件占刑事案件總量的比重較大。在試點(diǎn)法院中,適用認(rèn)罪認(rèn)罰從寬審結(jié)的刑事案件占審結(jié)刑事案件總數(shù)的50%左右,并且適用認(rèn)罪認(rèn)罰的案件也以三年以下有期徒刑的輕罪案件為主,占比達(dá)到90%。最高人民檢察院發(fā)布的《刑事檢察工作白皮書(2024)》指出,2024年適用認(rèn)罪認(rèn)罰從寬制度的人數(shù)為1 698 902人,適用達(dá)率86.9%。這些數(shù)據(jù)表明,當(dāng)前認(rèn)罪認(rèn)罰從寬的輕罪案件占刑事案件的比例較大,如若將這些案件應(yīng)用人工智能予以量刑,將會大幅降低法院量刑的工作量,從而有助于節(jié)省司法成本、緩解法院案件多人少的矛盾。二是輕罪案件往往事實(shí)清楚,爭議不大,從而易于形成結(jié)構(gòu)化、類型化、確定性的裁量數(shù)據(jù),符合人工智能決策標(biāo)準(zhǔn)化、模塊化、統(tǒng)一化、流程化的特征。三是輕罪案件的刑期具有較強(qiáng)的可預(yù)測性。因而,即便出現(xiàn)人工智能量刑偏誤的情形時(shí),發(fā)現(xiàn)和糾正量刑偏誤的成本也更低,這意味著其對司法裁判整體公信力可能產(chǎn)生的潛在危害也更小。此外,由于輕罪案件的刑期較低,和重刑案件相比,民眾對于此類案件出現(xiàn)誤判的接受度也相對更高。 可以預(yù)見,隨著人工智能量刑相關(guān)技術(shù)的迅速發(fā)展和完善,以及相關(guān)應(yīng)用實(shí)踐的不斷深化,通過人工智能展開量刑的案件范圍將逐步擴(kuò)展。對于人工智能量刑系統(tǒng)適用案件的擴(kuò)張前景而言,今后我們還可以考慮進(jìn)一步將法定量刑情節(jié)較多而酌定量刑情節(jié)較少、規(guī)范性評價(jià)較多而道德評價(jià)較少的法定犯納入人工智能輔助量刑的案件適用范圍內(nèi)。 (二)有效應(yīng)對算法難題 算法是人工智能系統(tǒng)開展量刑的核心,積極應(yīng)對相關(guān)算法決策可能引發(fā)算法黑箱、算法歧視、算法漏洞等問題,也是保障人工智能量刑結(jié)論可預(yù)測性、可接受性和公正性的前提和基礎(chǔ)。因此,應(yīng)當(dāng)從以下兩方面著手有效應(yīng)對算法難題。 其一,設(shè)立算法審查委員會,采取定期和不定期的方式展開事前、事中和事后審查,從而保障人工智能量刑系統(tǒng)的公正性、安全性和穩(wěn)定性。隨著人工智能技術(shù)發(fā)展和應(yīng)用的不斷深化,設(shè)立專業(yè)的監(jiān)管機(jī)構(gòu)對其展開全面審查監(jiān)管已經(jīng)是大勢所趨。因此,在統(tǒng)一的人工智能審查機(jī)構(gòu)中下設(shè)司法人工智能審查機(jī)構(gòu)對用于量刑的人工智能算法展開審查也具有必要性和可行性。在人員的組成上,對人工智能量刑系統(tǒng)展開審查的司法審查機(jī)構(gòu)應(yīng)當(dāng)由法官、法學(xué)專家、律師、算法工程師、社會公眾代表等組成,從而保障機(jī)構(gòu)人員的專業(yè)性、代表性、權(quán)威性。在職能上,審查機(jī)構(gòu)不但應(yīng)當(dāng)對人工智能量刑系統(tǒng)的數(shù)據(jù)來源是否合理、量刑結(jié)論是否存在偏差、量刑算法是否存在安全漏洞等展開技術(shù)性審查,還應(yīng)當(dāng)就不同量刑要素加權(quán)依據(jù)、量刑結(jié)論是否存在歧視、量刑結(jié)論能否適應(yīng)不同地域?qū)嶋H需求等展開實(shí)質(zhì)性的內(nèi)容審查。 對于審查的方式和流程,在人工智能量刑系統(tǒng)投入使用前,審查機(jī)構(gòu)應(yīng)當(dāng)就算法設(shè)計(jì)建構(gòu)過程中樣本案例的篩選、知識圖譜的設(shè)計(jì)、特征的選擇和樣本標(biāo)注等工作展開審查,從而確定算法設(shè)計(jì)的科學(xué)性和合理性。在人工智能量刑系統(tǒng)建構(gòu)完成后,審查機(jī)構(gòu)還應(yīng)當(dāng)就輸出結(jié)果展開測試,以確定量刑結(jié)果是否符合算法設(shè)計(jì)目的以及量刑偏差是否在可接受范圍內(nèi)。在量刑算法投入使用后,審查機(jī)構(gòu)可以采取定期抽查、隨機(jī)抽查、依申請檢查等方式,對人工智能量刑系統(tǒng)展開長期和動態(tài)監(jiān)管,從而保障人工智能量刑系統(tǒng)的適應(yīng)性和可靠性。 其二,建立完善的案例篩選和公開制度,為人工智能量刑系統(tǒng)提供優(yōu)質(zhì)且全面的數(shù)據(jù)學(xué)習(xí)集。首先,我們可以借助現(xiàn)有的案例指導(dǎo)制度和優(yōu)秀案例評選制度等機(jī)制,選擇那些較為優(yōu)質(zhì)的案例作為建構(gòu)和矯正人工智能量刑系統(tǒng)的基礎(chǔ)性素材來源,從而保障該系統(tǒng)的科學(xué)性和可靠性。其次,為了保障相關(guān)案例數(shù)據(jù)的完整性,我們可以充分利用法院數(shù)字化、信息化改革的成果,通過電子化、自動化的方式,實(shí)現(xiàn)相關(guān)案例從立案到裁決的全過程、全方位信息化,從而為人工智能量刑系統(tǒng)提供司法量刑的全樣本數(shù)據(jù)。最后,還可以通過算法自主清洗、法官在量刑實(shí)踐中標(biāo)注以及審查機(jī)構(gòu)定期審查等方式,對相關(guān)案例集不斷進(jìn)行優(yōu)化和更新,從而保障用于建構(gòu)人工智能量刑系統(tǒng)相關(guān)案例的優(yōu)質(zhì)性。 其三,我們還應(yīng)當(dāng)注重相關(guān)技術(shù)手段的應(yīng)用,從而以技術(shù)治理技術(shù),以代碼規(guī)制代碼。例如,面對人工智能輔助量刑中可能產(chǎn)生的歧視風(fēng)險(xiǎn),我們不但可以通過“歧視感知數(shù)據(jù)挖掘技術(shù)”以自動化的方式及時(shí)發(fā)現(xiàn)人工智能量刑系統(tǒng)中可能存在的歧視風(fēng)險(xiǎn),還可以通過調(diào)整數(shù)據(jù)特征的方式將歧視因素予以中立化處理,從而保障人工智能量刑系統(tǒng)的中立性。在實(shí)踐中,克里斯托·楊等學(xué)者就通過調(diào)整統(tǒng)計(jì)方式等技術(shù)手段,對其所設(shè)計(jì)的預(yù)測犯罪算法中的種族因素展開了中立化處理,這一算法在紐約市預(yù)審系統(tǒng)的實(shí)地應(yīng)用結(jié)果表明,其可以得出比一般算法更加契合平等保護(hù)條款的計(jì)算結(jié)論。 (三)積極保障當(dāng)事人的訴訟權(quán)利 刑事訴訟權(quán)利旨在確保當(dāng)事人在刑事訴訟過程中能夠受到公正對待,防止其受到不公正的指控和懲罰。因此,運(yùn)用人工智能輔助量刑系統(tǒng)應(yīng)當(dāng)從三方面保障當(dāng)事人的訴訟權(quán)利: 其一,應(yīng)當(dāng)保障當(dāng)事人對于人工智能量刑系統(tǒng)的知情權(quán)和選擇權(quán)。賦予當(dāng)事人對于法官使用人工智能系統(tǒng)量刑的知情權(quán)和選擇權(quán)是保障當(dāng)事人訴訟權(quán)利的基礎(chǔ)和前提。因而,如若法官選擇采取或參照人工智能展開量刑時(shí),不但應(yīng)當(dāng)事先明確告知當(dāng)事人相關(guān)量刑結(jié)論是通過人工智能量刑系統(tǒng)得出的,還需要告知當(dāng)事人擁有拒絕法官使用這一系統(tǒng)以及提出異議和獲得救濟(jì)的相關(guān)權(quán)利。當(dāng)被告知后,當(dāng)事人便擁有了選擇或拒絕人工智能輔助量刑的權(quán)利,其一旦拒絕人工智能輔助量刑,相關(guān)量刑工作只能由法官承擔(dān)。 其二,明確被告人擁有要求法院就人工智能的量刑結(jié)論做出合理解釋的權(quán)利。算法代碼的公開涉及商業(yè)秘密相沖突以及公眾缺乏相關(guān)專業(yè)知識無法理解的問題,因而將以民眾可理解的方式對量刑系統(tǒng)的設(shè)計(jì)目的和運(yùn)行原理做出解釋被認(rèn)為是更具可行性的公開方案。當(dāng)前,通過研究人員開發(fā)的“概念激活向量測試”(TCVA)算法,可以將不同要素對決策結(jié)論的影響程度以一種量化和直觀的方式予以顯示,從而能夠以一種對用戶友好的方式解釋算法的內(nèi)部運(yùn)行狀態(tài)。由此,我們也可以利用這一算法,將人工智能量刑系統(tǒng)的數(shù)據(jù)來源、核心變量值、特征權(quán)重比值、誤差范圍、工作原理以及量刑規(guī)律等信息以圖片、視頻等可視化、友好化的方式在法院官網(wǎng)或裁判文書公開網(wǎng)中予以展示。 其三,還應(yīng)通過審級制度和專業(yè)援助的方式為當(dāng)事人提供有效的救濟(jì)渠道。首先,由于二審或再審刑事案件往往涉及爭議較大、案情也更為復(fù)雜,因而不宜在這些案件中應(yīng)用人工智能輔助量刑,這也就意味著只能將人工智能量刑系統(tǒng)應(yīng)用于一審案件。同時(shí)這也是保障審級制度順利開展的前提和基礎(chǔ)。其次,如若當(dāng)事人對一審中人工智能輔助量刑的結(jié)果有異議而申請二審或再審時(shí),二審或再審便只能由人類法官審理。這是因?yàn)?,人工智能量刑系統(tǒng)的量化邏輯和經(jīng)驗(yàn)邏輯具有較高的一致性,如若仍然采取人工智能輔助量刑實(shí)質(zhì)上便意味著當(dāng)事人的上訴和申訴權(quán)利被剝奪。最后,人工智能量刑系統(tǒng)高度的專業(yè)性使得和檢察官、法官相比,被告人往往會因?yàn)橄嚓P(guān)專業(yè)知識的缺乏而在訴訟能力上處于劣勢。為了保障被告人獲得相對平等的訴訟能力,應(yīng)當(dāng)賦予被告人及其律師擁有申請獲得專業(yè)人員幫助的權(quán)利,從而避免人工智能量刑系統(tǒng)應(yīng)用可能造成的控辯雙方在訴訟能力上嚴(yán)重失衡的風(fēng)險(xiǎn)。 (四)探索合理的責(zé)任分配機(jī)制 對于人工智能輔助量刑出現(xiàn)錯(cuò)判、誤判的責(zé)任分配方案,本文認(rèn)為對于那些需要由法官主導(dǎo)量刑的疑難的、復(fù)雜的、新型的案件責(zé)任仍然由法官承擔(dān)并不存在較大的爭議。而對于人工智能量刑系統(tǒng)處理的簡單案件而言,主要存在由建構(gòu)人工智能量刑系統(tǒng)的企業(yè)擔(dān)責(zé)、法官擔(dān)責(zé)、法院擔(dān)責(zé)、設(shè)立保險(xiǎn)機(jī)構(gòu)擔(dān)責(zé)等方案。本文認(rèn)為,將法院作為人工智能輔助量刑出現(xiàn)錯(cuò)判、誤判的責(zé)任承擔(dān)主體更為合理。這是由于:一是法院作為擁有刑事懲罰決定權(quán)的國家機(jī)關(guān),其權(quán)威性是由國家公權(quán)力背書的,人工智能量刑系統(tǒng)得出的量刑結(jié)論只有經(jīng)過法院的認(rèn)可才能具有相應(yīng)的法律效力。因而由其承擔(dān)賠償責(zé)任更加契合我國訴訟權(quán)力的構(gòu)造機(jī)制,也更具合法性。二是從遭受錯(cuò)判、誤判的受害者的角度來看,由于技術(shù)能力、技術(shù)認(rèn)知壁壘的存在,無論是由技術(shù)公司還是由人工智能量刑系統(tǒng)擔(dān)責(zé),都會增加其舉證和維權(quán)負(fù)擔(dān),進(jìn)而增大敗訴風(fēng)險(xiǎn)。因此,從維護(hù)受害者權(quán)利的角度出發(fā),由法院擔(dān)責(zé)也更具合理性。三是相較于企業(yè)和個(gè)人,法院在賠償能力上也更具優(yōu)勢。同時(shí),法院作為使用人工智能量刑系統(tǒng)的直接獲益者,由其承擔(dān)量刑出錯(cuò)的成本也更具正當(dāng)性。 在法院承擔(dān)相關(guān)賠償責(zé)任之后,其可以通過向算法建構(gòu)和維護(hù)平臺追償?shù)姆绞揭院侠砑s束算法建構(gòu)和維護(hù)人員的行為。同時(shí),法院在購買相關(guān)人工智能量刑系統(tǒng)時(shí),還可以要求算法建構(gòu)和維護(hù)機(jī)構(gòu)購買一定數(shù)額的保險(xiǎn),以保障追償工作的順利展開。此外,我們還應(yīng)當(dāng)注意到相關(guān)刑事責(zé)任分配的問題,對于算法建構(gòu)平臺和設(shè)計(jì)人員,應(yīng)當(dāng)查明其是否出于故意或重大過失而致使量刑系統(tǒng)出現(xiàn)錯(cuò)判,對于當(dāng)事法官,則應(yīng)當(dāng)查明法官是否盡到一定的注意義務(wù),從而確定是否追究算法建構(gòu)平臺、設(shè)計(jì)人員和案件法官的刑事責(zé)任。 四、結(jié)語 從刑事量刑這一具有較高的結(jié)構(gòu)化、計(jì)量化、審慎化的領(lǐng)域入手,全面分析人工智能量刑系統(tǒng)的應(yīng)用優(yōu)勢、風(fēng)險(xiǎn),并針對風(fēng)險(xiǎn)提出具有前瞻性和系統(tǒng)性的風(fēng)險(xiǎn)應(yīng)對方案不但有助于量刑領(lǐng)域的優(yōu)化改革,而且也將為人工智能在整個(gè)司法領(lǐng)域的應(yīng)用提供參照經(jīng)驗(yàn)和路徑指引。當(dāng)然,本文在對人工智能輔助量刑相關(guān)異化風(fēng)險(xiǎn)及其應(yīng)對方案的分析中還存在諸多不足:如人工智能輔助量刑算法審查機(jī)構(gòu)在現(xiàn)有司法審查監(jiān)督體系中的定位問題還不清晰;對于界定人工智能輔助量刑出現(xiàn)違法或不當(dāng)?shù)臉?biāo)準(zhǔn)還有待進(jìn)一步明確,等等。因而,我們應(yīng)當(dāng)認(rèn)識到對于人工智能量刑系統(tǒng)發(fā)展前景的展望并不是一勞永逸的,還需要我們隨著實(shí)踐的探索而不斷提出更具場景化、精細(xì)化和系統(tǒng)化的調(diào)整方案,最終才能不斷提升人工智能量刑系統(tǒng)的公正性和可信賴性。 |
|
|