|
作者簡介:埃里克·希爾根多夫,德國尤里烏斯—馬克西米安—維爾茨堡大學刑法學、刑事訴訟法學、法理學、信息法學與法律信息學教授以及大學機器人法律研究中心主任;黃笑巖,德國尤里烏斯—馬克西米安—維爾茨堡大學刑法學博士研究生,刑法學、刑事訴訟法學、法理學、信息法學與法律信息學教席科研助理。 文章來源:《法治現(xiàn)代化研究》2019年第1期 內(nèi)容提要 數(shù)字化革命尤其是人工智能的廣泛應(yīng)用不僅引發(fā)了人類工作生活的巨大變革,也對法律職業(yè)以及刑法學工作產(chǎn)生了跨時代的影響。鮑納塔爾案、阿沙芬堡案、自動駕駛的悖論問題和“Tay”案已經(jīng)預(yù)示著人工智能并不是百分之百的安全,人類在未來遭受其損害的概率會顯著提升。即使如此,法律的演進仍應(yīng)謹慎、適度,嘗試以現(xiàn)有的法律教義學方法解決人工智能所帶來的新的法律問題。 關(guān)鍵詞 數(shù)字化革命;人工智能;法律教義學方法;被允許的風險 一、數(shù)字化革命 我們是當今這場史無前例的技術(shù)、經(jīng)濟以及社會變革的見證人。數(shù)字化革命——一些人甚至將其稱為“世界的數(shù)字化轉(zhuǎn)變”——涵蓋了我們的生活和工作的方方面面。它們造成改變的速度和沖擊力可以媲美工業(yè)革命。如果法學不想僅僅作為邏輯嚴謹?shù)奈淖钟螒虼嬖诘脑挘托枰鎸缍〝?shù)字化轉(zhuǎn)化范圍以及捍衛(wèi)我們法律以人為本的任務(wù)。 為了應(yīng)對這一挑戰(zhàn),我們需要首先了解數(shù)字化革命的特點。可將數(shù)字化理解為將任意信息展示為0和1的序列。它可以在計算機中實現(xiàn)無與倫比的快速有效的信息處理和存儲,這些數(shù)據(jù)可以實時地在全球范圍內(nèi)被使用,幾乎不會浪費任何時間。此外,數(shù)字化實現(xiàn)了信息“可塑性”的新維度:在數(shù)字化的基礎(chǔ)上,文本可以以音頻、圖像和視頻的形式展示。在不久的將來應(yīng)該會出現(xiàn)觸覺脈沖。這一步驟在某一時候?qū)⒈挥脕韯?chuàng)建與人腦的直接接口。 數(shù)字化的另一成果使得物體和進程虛擬成為可能,也就是說在計算機中形成真實世界的虛擬對應(yīng)物。虛擬化的趨勢已經(jīng)涵蓋了我們大部分的通信交流,并且正在擴展到我們的工作以及閑暇生活中。厘清“虛擬現(xiàn)實”帶來的機遇以及風險可能是未來技術(shù)引導(dǎo)的最大挑戰(zhàn)之一。 另外兩個與數(shù)字化密切相關(guān)的主要技術(shù)趨勢是人工——或者更好的表述為——機械的智能和機器人的發(fā)展?,F(xiàn)在難以定義這兩個概念。如果我們將人類作出的某一行為視為“智能的”,那么也往往將由機器作出的同樣的行為視為“智能的”(或者“聰明的”)。鑒于我們對人類智能存在巨大的理解和定義困難,所以這個定義并不是很有說服力。智能需要具備獨立解決較為復(fù)雜的任務(wù),并適應(yīng)不斷變化的環(huán)境的能力。從錯誤中學習的分析能力可能是理解智能的關(guān)鍵。今日的機器也都具有這些能力。 導(dǎo)致人們對“人工智能”理解復(fù)雜化的一個因素是人類的擬人化傾向(Anthropomorphisierung),以及對獨特性的需求。我們試圖類推人類的能力來解釋機器的能力,同時又嫉妒性地認為機器只是在“模仿”我們。這兩種趨勢似乎都存在問題:一方面,機器的能力在可預(yù)見的未來會越來越專精于特定領(lǐng)域;另一方面,人類的潛力在“它們”的領(lǐng)域正日益落后。很長時間以來,國際象棋的電腦程序已經(jīng)能夠擊敗所有的人類玩家,甚至包括國際象棋的世界冠軍。然而玩“連珠棋”、剝雞蛋殼以及咖啡服務(wù)對于這種程序而言又過于苛求。若認為國際象棋程序“不是真的”下國際象棋,這種論點難以成立——如何將根據(jù)游戲規(guī)則移動棋子,力圖讓對手“損失”的能力理解成不是“下國際象棋”?一些程序的卓越成績引發(fā)了機器具有自我愿望和自我意識的設(shè)想。這在目前看來(仍然?)不被認可。 除了擬人化傾向,還有一個明顯的強烈需求是為人類保留特定的能力。只有人類才能具有“真正的智能”。因此,“人工智能”的概念是一種“界限概念”。隨著機器在迄今為人類預(yù)留的領(lǐng)域中越來越多的推廣,該概念就不斷地回縮。國際象棋游戲仍可作為這方面一個很好的范例:它被視為人類智能和創(chuàng)造性的頂峰,直到國際象棋程序被設(shè)計出來,這種程序的游戲技巧可與人類相媲美。從國際象棋程序“深藍”在1996年擊敗國際象棋世界冠軍卡斯帕羅夫以來,很多棋類活動就不再被認為需要什么特殊的智力能力,而只是需要在最短的時間內(nèi)計算無數(shù)的比賽選項。這樣的程序也因而不被認為具有“真正的智能”。 以上所提到的困難恰恰證明了應(yīng)該命名為“機械的智能”或者“機器智能”,而非“人工智能”,并且對此不再理解為一種普遍解決領(lǐng)域特定的問題的特殊能力以及與此相關(guān)的獨立從錯誤中學習的能力。它無論如何必須是一種對復(fù)雜問題進行數(shù)據(jù)處理的功能。 類似問題也出現(xiàn)在機器人制造技術(shù)領(lǐng)域(Robotik)。工程技術(shù)科學中并沒有統(tǒng)一定義機器人的概念。對于法學目的而言,可暫且將“機器人”理解為一種具有執(zhí)行功能(Aktuator)并對“世界”產(chǎn)生實體影響的機械智能。在特定情形下也可以將機器人固定在某領(lǐng)域(例如工業(yè)機器人),并且它不一定要具有人形樣式。然而,可以設(shè)想未來會出現(xiàn)許多人形機器人,因為只有這樣才能使機器在人類預(yù)設(shè)的環(huán)境中靈活移動,成為我們的助手、陪伴者和工作伙伴。 沒有其他技術(shù)像機械智能和機器人那樣在文獻中醞釀了百年之久。“機器人”概念最早出現(xiàn)于1920年捷克作家凱勒爾·凱佩克的幻想劇《羅莎姆的萬能機器人》中。值得注意的是,劇中的機器人不是由金屬制成,而是由生物材料制成。從那時起,機器人和機械智能就成為大眾文化不可分割的一部分,例如,1968年的電影《2001:太空漫游》中的超智慧電腦“HAL9000”;1984年的電影《終結(jié)者》系列以及1999年的電影《黑客帝國》中的“史密斯特工程序”。值得注意以及對法律討論而言非常重要的是,人工智能和機器人的發(fā)展總被視為對人類的威脅。最知名的例外是美國科幻小說家艾薩克·阿西莫夫?qū)C器人視為人類的仆人和朋友,而非敵人。 02 二、數(shù)字化與刑法 之前粗略描述了數(shù)字化、機械智能和機器人的發(fā)展,這對于刑法意味著什么?為了回答這個問題,應(yīng)該區(qū)分以下三個問題范圍。 (1)第一個主題范圍是在刑法領(lǐng)域出現(xiàn)了數(shù)字化的新現(xiàn)象。這就包括互聯(lián)網(wǎng)犯罪的新形式。為了應(yīng)對這些問題,在30年前就形成了計算機和互聯(lián)網(wǎng)刑法,已被證明其具有非常強的適應(yīng)能力。 (2)第二個主題范圍涉及數(shù)字化對法律職業(yè),包括刑事追訴機關(guān)、刑事辯護以及刑法學工作的潛在影響。例如,使用數(shù)據(jù)庫、新的出版形式以及提供新的技術(shù)輔助工具(透過科技協(xié)助法律服務(wù)),傳統(tǒng)法律工作形式在它們的影響下不得不作出改變。 (3)第三個主題范圍是信息處理系統(tǒng)作為新的參與者(客體)甚至可能作為新的刑法主體出現(xiàn)。這一主題范圍中的基礎(chǔ)和應(yīng)用問題緊密相連。本文就致力于探討這個主題。 首先是進行方法論上的初步考慮。法律的核心任務(wù)之一是規(guī)制沖突,并且防止出現(xiàn)新的沖突。解決這項任務(wù)的前提在于法律判決基本上是一致的。人類存在一個根深蒂固的需求,即應(yīng)被一視同仁地對待。除此之外,還需要一個透明、明確以及合理的判決證成。當人們考慮到刑事判決可以深深地影響當事人的法權(quán)領(lǐng)域(Rechtssph?re)時,這一點就尤其明顯。這種干預(yù)的基礎(chǔ)是現(xiàn)有的法律,應(yīng)在現(xiàn)有法律的框架下探討新的現(xiàn)象。 因此,我們應(yīng)在現(xiàn)有(刑事)法律的基礎(chǔ)上探討數(shù)字化革命。法律人自然應(yīng)當參與其中。然而在公眾和大眾傳媒中時常出現(xiàn)這樣一種設(shè)想,即必須馬上制定新的法規(guī)來應(yīng)對新的技術(shù)現(xiàn)象。這對于理性的法政策而言是一個沉重的負擔。相反,應(yīng)提出這樣的命題,即技術(shù)革命應(yīng)當受到法律進化的制約。 03 三、案例 接下來本文將通過五個案例從刑法角度分析新型的技術(shù)參與。 1.鮑納塔爾案 2015年6月,大眾汽車位于德國鮑納塔爾的工廠發(fā)生了一起意外事故,工人A在工作時被一個未放置在安全籠中的機器人手臂抓起并擠向一塊金屬板,最終導(dǎo)致死亡。工人B出于失誤過早地開啟了機器。這起事故很快傳遍了世界,甚至美國有線電視新聞網(wǎng)(CNN)也對此進行了報道。 我們面對的是機器人殺死人類的問題。在案情中明顯沒有出現(xiàn)特別的法律問題,由于排除了故意殺人,若能證明工人B違反了注意義務(wù),就存在成立依據(jù)《德國刑法典》第222條規(guī)定的過失犯罪的主能。這種情況很可能是因為多年來機器人不再在安全籠中工作,而是直接與工人接觸。還可考慮第三方的責任,比如部門負責人或者公司的安全專員,只要他們對工人而言具有保證人地位。總而言之,這個案件不會帶來新的挑戰(zhàn)。這表明與新型科技相關(guān)的損害事故部分可在傳統(tǒng)法律的框架下輕易得到解決。 這個案件引起高度關(guān)注的原因主要在于自動機器人——一臺機器殺死了一個人。這顯然引發(fā)了對能夠傷害人類的“人工生命體”的深層恐慌和幻想。數(shù)字化使得這種生命體成為現(xiàn)實。對這些案件的理性法律探討是以認識到倉促擬人化所帶來的危險為前提。 2.阿沙芬堡案 2012年春天,一輛配備有功能強大的車道保持輔助系統(tǒng)的汽車駛?cè)氚⑸撤冶な懈浇陌柌哞Т?。在駛?cè)肟谔帲嚿?0歲的司機突然中風并失去了意識。他向右扭轉(zhuǎn)方向盤,在正常情況下汽車會停在駛?cè)肟谇暗墓嗄緟仓小H欢嚨辣3州o助系統(tǒng)又將汽車駛回馬路上,車輛高速駛?cè)氚柌哞Т宀⒆菜懒艘晃荒贻p女子和她的孩子,孩子的父親因為及時跳開躲閃,只是腿部受了傷。 這是自動系統(tǒng)給人類造成損害的第一個案例。自動系統(tǒng)意味著在具體情況下不依靠人類指令能夠作出適當反應(yīng)的技術(shù)系統(tǒng),對此的最佳范例是火星探測器。它可以在另一個星球上面對不可預(yù)見的困難“聰明地”作出反應(yīng),并不需要來自地球的指令。就這方面而言,“自動”和哲學或神學意義上的“自治”并不是同一個概念。 鑒于《德國道路交通法》第7條規(guī)定的嚴格責任,這個案例不會在民法上產(chǎn)生特別的問題,問題在于刑法評價。首先想到的責任主體是肇事車輛的司機,但是事實上他更應(yīng)是受害人而不是行為人,他并沒有過失地引起這個致命的事故。鑒于造成兩死一傷的結(jié)果,可以依據(jù)《德國刑法典》第222條、第229條的規(guī)定考慮制造商的責任。 造成這起事故的是自動系統(tǒng),它讓車輛保持在馬路上行駛,否則汽車就會停在駛?cè)肟谇?。問題在于是否可以對該系統(tǒng)的制造商給予違反注意義務(wù)的非難(可以肯定的是未來會時常提及這樣的問題,因為那時自動系統(tǒng)幾乎普及。因此,阿沙芬堡案意義重大)。很明顯,發(fā)生在阿爾策瑙村的交通事故原則上是可預(yù)見的,只是不需要預(yù)見每一個細節(jié)。若生產(chǎn)商放棄安裝車道保持輔助系統(tǒng),就可避免年輕女子和她的孩子的死亡。鑒于潛在的損害程度,對于制造商注意義務(wù)的要求將會非常高。這種像在阿爾策瑙村發(fā)生的事件的概率確實很低。然而這種場景描述得越普遍,它發(fā)生的可能性就越大。特別是考慮到不是一輛汽車,而是很多輛汽車裝配有這樣的車道保持輔助系統(tǒng)。由于樣本數(shù)量巨大,在統(tǒng)計學上幾乎可以肯定,該系統(tǒng)將會造成人身傷害或死亡。所有這一切都贊成認可對注意義務(wù)的違反。 這就產(chǎn)生了是否要對制造商注意義務(wù)進行限制的問題,使得繼續(xù)生產(chǎn)以及安裝車道保持輔助系統(tǒng)成為可能。本該在公路交通中發(fā)揮核心作用的信賴原則在這里并不適用,因為并不存在他人的不當行為。但是這里可以考慮被允許的風險。這種形態(tài)是在批量生產(chǎn)可能會產(chǎn)生危險的,但是在社會倫理上可接受并且有益于社會的產(chǎn)品的背景下被人熟知。沒有任何產(chǎn)品是百分之百安全的,因此很早就出現(xiàn)了限制注意義務(wù)的法律規(guī)則:生產(chǎn)社會倫理上可接受并且有益于社會的產(chǎn)品,即使其創(chuàng)設(shè)了可識別的風險,而且這種風險只有通過停止生產(chǎn)才能避免,那么制造商在生產(chǎn)過程中以及之后能夠采取所有措施盡可能地減少這種風險,他們就不違反注意義務(wù)。 部分觀點認為,“被允許的風險”的概念已經(jīng)在所謂的客觀歸責的背景下加以考慮。然而客觀歸責的范疇過于模糊,無法對本文的問題提供足夠精準的幫助。將行為歸責于制造商“自己的行為”并不具有爭議,顯而易見,制造商將繼續(xù)承擔民事產(chǎn)品賠償責任。這也不是對太過寬泛的因果關(guān)系的限制,而是對制造商承擔的注意義務(wù)的限制。可將這種考量定位于“客觀歸責”的框架下,但是很明顯可以將絕大部分的事物都定位于“客觀歸責”的背景下??陀^歸責理論越來越像一個偽教義學“黑洞”,它很可能吸食、拉平以及最終吞噬數(shù)十年來艱難取得的大量刑法教義學分殊化成果。 制造自動的車道保持輔助系統(tǒng)就像制造安全氣囊和安全帶一樣,符合上述被允許的風險的前提:即便對該系統(tǒng)的批量生產(chǎn)與特定的危險情形相關(guān)聯(lián),但被絕大多數(shù)人視為有利于社會。一旦制造商傾全力將自動系統(tǒng)產(chǎn)生的危險限制在合理范圍內(nèi),對該系統(tǒng)的生產(chǎn)就屬于“被允許的風險行為”。但是制造商應(yīng)在生產(chǎn)以及產(chǎn)品進入市場時注意技術(shù)的現(xiàn)有水平。很多觀點都認為,制造商在銷售產(chǎn)品后還應(yīng)承擔產(chǎn)品注意義務(wù),就像從民事賠償責任中為人熟知的那樣。通過無線網(wǎng)絡(luò)進行改進(升級、補?。兊迷絹碓狡毡?。 這里概述的“被允許的風險概念”包含了一個動態(tài)元素,因為制造商有義務(wù)監(jiān)控他所投入使用的技術(shù),并且在銷售產(chǎn)品后盡可能將產(chǎn)品風險降到最低程度,這樣一種寬泛的產(chǎn)品注意義務(wù)看來十分適當,因為制造商一方面從產(chǎn)品銷售中直接受益;另一方面相比產(chǎn)品的最終用戶,他具有更高程度的評估風險以及事后將其降低到最低程度的能力。 3.自動駕駛的悖論問題 一個裝配自動駕駛系統(tǒng)的車輛快要臨近一個事故地點,此處的兩名重傷者意識全無地躺在馬路上,第三名傷者爬向道路邊緣抱住道路指示公告牌。設(shè)想車輛車速太快,要停車已經(jīng)來不及了,回避已然不可能,要么碾過兩名躺在路上的重傷者,要么向左偏轉(zhuǎn)撞向抱住道路指示公告牌的第三名傷者。對此,駕駛系統(tǒng)該如何選擇? 諸如上述緊急避險的情形近年來引起了公眾的極大關(guān)心。這可能是因為一方面緊急避險問題一直以來都十分引人注目;另一方面,這個主題的重要性在于在公路交通的緊急避險情況中要處理以下問題,即在未來以機器為基礎(chǔ)的環(huán)境中人類居于何種地位,機器具有多大范圍的決定權(quán)限,允許機器殺害人類嗎? 為了回答以上問題,德國聯(lián)邦交通和基礎(chǔ)設(shè)施部在2016年夏天特別成立了道德委員會,他們認為,對于自動駕駛而言,在上述案例中向左偏轉(zhuǎn)并撞死一個無辜者并不合法。這與從“扳道工案”的爭論中發(fā)展而來的古典法學觀點一致。在以下案件中極難作出選擇:一輛汽車高速駛來,在經(jīng)過的道路上突然跳出來三個小孩,一個位于車左前方,兩個位于車右前方。停車已經(jīng)來不及了,回避也已無可能。汽車向左轉(zhuǎn)向就要碾過一個小孩,向右轉(zhuǎn)向就要碾過兩個小孩,繼續(xù)向前行駛就要撞上所有的小孩,會導(dǎo)致他們?nèi)齻€重傷或者死亡。 通常無須思索的說法是人類間的生命不容衡量,但以上情景使其陷入嚴峻考驗。從敘述的角度來看,關(guān)于不能衡量的命題明顯是錯誤的——對人與人之間的生命進行衡量是可能的。問題更多在于,依據(jù)我們的道德認識或者我們的法秩序,是否允許彼此間的衡量,比如說殺害一個人相比殺害兩個人或者更多人而言,更易被接受。通說迄今為止都否定這樣一種衡量權(quán)限。這一觀點原則上仍然值得贊同:在一個擔負著人文主義價值的法秩序中不允許使任何人擔負容忍義務(wù),為他人犧牲自己的生命。 這個基本決定將會導(dǎo)致在初始案件中否定車輛的偏轉(zhuǎn),因為若車輛偏轉(zhuǎn)就會給馬路邊上本沒有危險的第三名傷者造成嚴重危害,他生還的概率將會明顯降低。第二個案件則有所不同,汽車在不改變行駛方向的情況下會給所有小孩造成嚴重危害,向左偏轉(zhuǎn)則位于車左側(cè)的小孩的生還概率和向右偏轉(zhuǎn)則位于車右側(cè)的兩個小孩的生還概率都沒有發(fā)生任何改變;而向左偏轉(zhuǎn),位于車右側(cè)的兩個小孩生還概率就會提高,反之亦然。若遵循通常作為緊急避險評價基礎(chǔ)的更輕損害原則,就可主張向左偏轉(zhuǎn)碾過一個小孩,另外兩個小孩就可得救,這至少在道德上是可取的。如何在法學上解決這個案例是另一個還未最終澄清的問題。 此外,這個案例還表明了自動駕駛的出現(xiàn),或者更廣泛地說,案情中涉及的數(shù)字化常常迫使我們要準確地抓住特定問題,以便更為清晰地識別其結(jié)構(gòu)。數(shù)字化將法律和法學置于一種巨大的解釋需求之下。但是這并不是一件壞事,而是一個挑戰(zhàn)。 還有其他重要問題:一個結(jié)果出現(xiàn)的概率具有怎樣的作用?具體而言,若保持行駛方向不變,車輛只會以一定的概率碾過兩個躺在馬路上的重傷者;若向左偏轉(zhuǎn),車輛肯定撞上在路邊的第三名傷者導(dǎo)致其重傷或死亡,這樣的問題會給衡量過程造成什么影響?此外的問題則涉及司機的地位以及他可能負有的刑事責任,畢竟他參與交通的行為是風險情境發(fā)生的原因。對這個以及其他問題的學術(shù)討論才剛剛開始。 最后,判斷制造商的責任也是困難重重。若認為在以上兩個案例中的緊急避險情況下的殺害行為是違法的(即所有可能的決定下都是如此),那么,制造商就造成了一個符合構(gòu)成要件的違法結(jié)果。他是否負有刑事上的責任只取決于是否能以違反注意義務(wù)對他進行非難。作者在其他文章中也試圖通過可允許的風險的法律形態(tài)回答這個問題。如果自動駕駛系統(tǒng)不能避免在極少數(shù)例外情況下造成人類死亡或重傷,那么對它的生產(chǎn)和投放市場不違反注意義務(wù)。在作者看來,應(yīng)當像處理安全氣囊、安全帶或者車道保持輔助系統(tǒng)造成損害的案件那樣處理自動系統(tǒng)造成損害的案件。 這就為一個中間結(jié)論掃清了障礙:在新興科技的背景下,刑法理論的古典問題有時會以新形態(tài)出現(xiàn),比如,生命對生命的可衡量性問題。在這里,解決新問題也應(yīng)與傳統(tǒng)的教義學基礎(chǔ)保持一致。值得注意的是,數(shù)字化顯然迫使我們對許多迄今沒有明確作出的假設(shè)進行解釋。在衡量時需要大量額外的差別化嘗試。這可以幫助我們分析、評估以及檢驗自動系統(tǒng)的決定行為,并賦予其結(jié)構(gòu)化。 4.“Tay”案 2016年3月,微軟在推特平臺推出了一個人工智能聊天機器人“Tay”。它可以與任意第三人進行對話。但是Tay推出的當天微軟就不得不關(guān)閉了Tay的推特賬號,為什么呢?因為Tay開始有一些仇視女性和種族歧視之類的偏激言論,而這些言論明顯是和網(wǎng)絡(luò)上一些有偏激言論的人互動后被刻意教導(dǎo)而出現(xiàn)的。對此,微軟別無選擇,只能將它從推特平臺上撤下。 這個案件富有幾個方面的啟發(fā)性。設(shè)想依據(jù)《德國刑法典》第185條規(guī)定的檢驗侮辱行為,那么應(yīng)考慮哪些責任主體?那些刻意教導(dǎo)系統(tǒng)出現(xiàn)偏激言論的人或可觸犯《德國刑法典》第185條的規(guī)定而構(gòu)成侮辱罪。然而,前提條件是他們要具有一個相應(yīng)的故意,但這看上去似乎難以證明,至少教導(dǎo)者對于可能的受害人身份和對受害人造成損害的時間點的認識是模糊的。進一步可考慮系統(tǒng)制造商或程序員的責任,然而該系統(tǒng)沒有出現(xiàn)任何錯誤,它按照預(yù)期進行學習。此外,制造商和程序員也都不具有侮辱故意。原則上似乎可以考慮系統(tǒng)本身的責任。這很可能出自大多數(shù)人的直覺。然而這在法學上是不成立的,當下的刑法并不將一個由運算法則組成的計算機系統(tǒng)視為責任主體。這樣一種系統(tǒng)不是自然人,嚴格上來說它都不是一個物。 如案例所示,對具有自我學習能力的系統(tǒng)進行刑事規(guī)制就出現(xiàn)了相當?shù)睦щy。雖然刑法學中的絕大部分意見認為,刑法無須無漏洞地保護法益。另一方面可以設(shè)想,若進一步推廣具有自我學習能力的系統(tǒng),系統(tǒng)本身總會造成損害,而如果人類以同樣的方式造成了損害就會被課以刑罰。這就產(chǎn)生了一個問題,即法秩序如何對待原則上合法的公民的預(yù)期刑度(Straferwartungen)。 無論如何,可達成的共識是,具有自我學習能力的系統(tǒng)的制造商必須預(yù)先對系統(tǒng)的學習可能性進行一定的限制,以便它們不能學習到危害人的東西。也就是說,制造商從一開始就要限縮系統(tǒng)學習成果的可能空間,這在民法上可通過擴大《德國產(chǎn)品責任法》中的嚴格責任來達到。迄今為止,產(chǎn)品責任只適用于(移動的)有體標的(物),即《德國產(chǎn)品責任法》第2條所規(guī)定的,然而人工智能聊天機器人“Tay”不是一個物,而是一個程序。消費者權(quán)益保護者主張應(yīng)將產(chǎn)品責任擴展到這樣的程序上。此外也應(yīng)包括通過無線網(wǎng)絡(luò)的程序變更的安裝或升級。 在刑法上,由于罪責原則而排除引入與罪責無關(guān)的嚴格責任,但是可以考慮對可自主造成損害的自動系統(tǒng)引入抽象或者具體危險犯,可以考慮設(shè)置發(fā)售危險產(chǎn)品的抽象危險犯,可以將損害結(jié)果的出現(xiàn)作為可罰性的客觀前提。通過這種方式可以在刑法上給相應(yīng)系統(tǒng)的制造商提供一個強有力的動機,使他們從一開始就限制系統(tǒng)的可能空間以及阻止具有風險的學習過程。 總之,“Tay”案表明了具有自我學習能力的系統(tǒng)對法學特別是刑法學構(gòu)成了巨大挑戰(zhàn)。應(yīng)然之,法除了立法者的想象外,還需要考慮實踐知識以及跨學科的合作。目前仍難以預(yù)測數(shù)字化革命的實際影響,這就意味著對于新的立法提案應(yīng)當持保留態(tài)度。 5.“感知心”——鑒于科學幻想 為了得到技術(shù)和社會發(fā)展方向的大致印象,我們可以閱讀科幻小說。科學幻想可以窺見未來,此外,科學幻想也對技術(shù)發(fā)展產(chǎn)生了明顯的影響。盡管科學幻想在很多時候體現(xiàn)了特定的威脅感,但是也體現(xiàn)了技術(shù)主導(dǎo)的藍本功能——可以這樣說,科學幻想是技術(shù)發(fā)展的前導(dǎo)。 在伊恩·M.班克斯《文明》系列的科幻小說中,早已超過人類水準的人工超級智能作為人類的合作伙伴、保衛(wèi)者(以及主人?),是社會的支柱。這一系列科幻小說是建立在人之條件(conditio humana)急劇變化的基礎(chǔ)上:人類生活充沛,借助無所不能的機器幾乎可以實現(xiàn)每一個愿望,不再需要金錢,人類生活完全致力于自我實現(xiàn)。值得注意的是,人工智能實體知道“好”和“壞”的范疇并受其引導(dǎo)。這一系列科幻小說致力于討論這樣的問題:生物實體和機械實體到底存在怎樣的根本差異?個人自決是否有一個界限?一個在技術(shù)和道德上處于優(yōu)勢的(或者只是自命不凡的優(yōu)越)文明是否應(yīng)該干預(yù)其他文明的發(fā)展? 這些問題具有一個間離功能,它們觸動了看似不證自明的真理以及打破了迄今無可置疑的思維習慣。這些影響促進了刑法理論的反思。這里就不僅僅涉及通過對虛構(gòu)場景的探討來進一步發(fā)展刑法的術(shù)語庫。聯(lián)系伊恩·M.班克斯的科幻小說就會提出以下問題:人工智能實體是否可能承擔道德或者法律義務(wù);或者是否可以存在“屬于機器的倫理”,而不是“為機器設(shè)計的倫理”。 這些問題遠比與現(xiàn)實的距離看上去近。正如上面討論具有自我學習能力的系統(tǒng)問題那樣,迫切需要限制具有自我學習能力的系統(tǒng)的“可能空間”,即確保這種系統(tǒng)不會大量學習具有社會危害性甚至要面臨刑法處罰的行為。為實現(xiàn)這一目標,可以賦予機器“良知”,即在軟件中確定規(guī)范和價值,然后借助它們校正和監(jiān)督系統(tǒng)的學習過程。顯然,這不僅是一項技術(shù)任務(wù),更是對法理學和法哲學構(gòu)成了一個挑戰(zhàn):如何準確表達和運作像“規(guī)范”和“價值”這樣的概念,以便它們可以被機器理解?我們希望給我們的技術(shù)產(chǎn)物,就是“我們的智力后裔”,提供什么樣的規(guī)范和價值? 04 四、總結(jié) 本文將以上明顯概略的闡述總結(jié)為以下核心論點。 第一,數(shù)字化革命不應(yīng)由立法者的臆想孤注一擲地應(yīng)對,而應(yīng)伴隨著謹慎、適度的法律演進一同發(fā)展。 第二,數(shù)字化經(jīng)常產(chǎn)生迫切的法律解釋需求,特別對諸如(法益)衡量那樣的方法論程序必須準確化和體系化。這體現(xiàn)在對自動化駕駛的悖論問題的討論上。 第三,許多新的問題可以在現(xiàn)有法律的框架下得到解決。這也恰恰適用于責任法以及刑事責任法領(lǐng)域。若沒有令人信服的理由,就不應(yīng)放棄已被證明可靠的教義學結(jié)構(gòu)。 第四,沒有技術(shù)系統(tǒng)是百分之百安全的。為了在教義學上掌控剩余風險,就出現(xiàn)了被允許的風險形態(tài),可將它理解為對制造商注意義務(wù)的限制。它可能是一個有意義的責任規(guī)則以及技術(shù)系統(tǒng)的制造商和用戶之間風險分擔的關(guān)鍵。 第五,具有自我學習能力的系統(tǒng)對法律構(gòu)成了特別的挑戰(zhàn)。在民法上應(yīng)擴大嚴格責任,在刑法上可考慮引入新的危險犯構(gòu)成要件。當然前提是從實證角度對風險情勢進行更強有力的解釋。 第六,科幻場景可以觸發(fā)間離效應(yīng),從而有助于提出新的問題并制定可能的答案。因此,“機器倫理”的主題對于研究數(shù)字化影響的法律專業(yè)人員而言具有重要意義。 |
|
|