|
2019加入學術(shù)plus丨2018學術(shù)大禮包丨2017不可以錯過的重磅報告?zhèn)?/a> 歐盟委員會于本月8日發(fā)布了正式版的人工智能道德準則《ETHICS GUIDELINES FOR TRUSTWORTHY AI》(可信賴AI的倫理準則),提出了實現(xiàn)可信賴人工智能全生命周期的框架。 該準則由歐洲人工智能高級別專家組(High-Level Expert Group on Artificial Intelligence,AI HLEG)起草。AI HLEG由歐盟委員會2018年4月任命的專門負責撰寫人工智能道德準則并為歐盟提供政策和投資建議的小組,包括52位代表學術(shù)界、工業(yè)界和民間社會的獨立專家。 文章僅供參考,觀點不代表本機構(gòu)立場。 發(fā)布機構(gòu):歐盟委員會 發(fā)布時間:2019年4月8日 編譯:學術(shù)plus高級評論員 張濤 來源:https://ec. 1. 報告將從三個方面分析“可信賴AI全生命周期框架”分別為:三個基本條件、可信賴AI的基礎(chǔ)、以及可信賴AI的實現(xiàn)。 2. 提出四項倫理準則:尊重人自主性、預防傷害、公平性和可解釋性。 3. 實現(xiàn)可信賴AI的七個關(guān)鍵要素:人的能動性和監(jiān)督;技術(shù)魯棒性和安全性;隱私和數(shù)據(jù)管理;透明性;多樣性、非歧視性和公平性;社會和環(huán)境福祉;問責。 報告正文摘編如下 完整報告下載請點擊文末“閱讀原文” 全生命周期框架 -1- 準則的目標是推進可信賴AI(Trustworthy AI)的發(fā)展??尚刨嘇I在系統(tǒng)的全生命周期中需要滿足三個條件:
-2- 根據(jù)國際人權(quán)法律、歐盟條約和歐盟憲章,專家組提出了AI系統(tǒng)應該涵蓋的基本權(quán)利,其中有些權(quán)利在歐盟是法律強制執(zhí)行的,因此保證這些權(quán)利也是法律的基本要求,包括:尊重人的尊嚴(Respect for human dignity),個人自由(Freedom of the individual),尊重民主、正義和法律規(guī)范(Respect for democracy, justice and the rule of law),平等、不歧視和團結(jié)(Equality, non-discrimination and solidarity)、公民權(quán)利(Citizens’ rights)。 包括:尊重人的自主性(respect for human autonomy)、預防傷害(prevention of harm)、公平性(fairness)和可解釋性(explicability)。 倫理準則1:尊重人的自主性。AI系統(tǒng)不應該、脅迫、欺騙、操縱人類。相反,AI系統(tǒng)的設(shè)計應該以增強、補充人類的認知、社會和文化技能為目的。人類和AI系統(tǒng)之間的功能分配應遵循以人為中心的設(shè)計原則,而且AI系統(tǒng)的工作過程中要確保人的監(jiān)督。AI系統(tǒng)也可能從根本上改變工作領(lǐng)域。它應該在工作環(huán)境中支持人類,并致力于創(chuàng)造有意義的工作。 倫理準則2:預防傷害。AI系統(tǒng)不應該引發(fā)、加重傷害,或?qū)θ祟惍a(chǎn)生不好的影響。因此需要保護人類的尊嚴和身心健康。AI系統(tǒng)和運行的環(huán)境必須是安全的(safe and secure)。因此要求技術(shù)上必須是魯棒的,而且要確保AI技術(shù)不會被惡意使用。尤其要注意可能會惡意使用該技術(shù)的人和可能會造成不良影響的應用場景。 倫理準則3:公平性。AI系統(tǒng)的開發(fā)、實現(xiàn)和應用必須是公平的。雖然對公平性可能會有不同的解讀,但是應當確保個人和組織不會受到不公平的偏見、歧視等。如果AI系統(tǒng)可以避免不公平的偏見,就可以增加社會公平性。為此,AI系統(tǒng)做出的決策以及做決策的過程應該是可解釋的。 倫理準則4:可解釋性。可解釋性對構(gòu)建用戶對AI系統(tǒng)的信任是非常關(guān)鍵的。也就是說整個決策的過程、輸入和輸出的關(guān)系都應該是可解釋的。但目前的人工智能算法和模型都是以黑盒(black box)的形式運行的。 -3- 專家組提出了AI系統(tǒng)應該滿足的7個關(guān)鍵要素以達到可信賴的要求,分別是:人的能動性和監(jiān)督(Human agency and oversight),技術(shù)魯棒性和安全性(technical robustness and safety),隱私和數(shù)據(jù)管理(privacy and data governance),透明性(transparency),多樣性、非歧視性和公平性(diversity, non-discrimination and fairness),社會和環(huán)境福祉(societal and environmental wellbeing),問責(accountability)。 要素1:人的能動性和監(jiān)督。AI系統(tǒng)應通過支持人的能動性和基本權(quán)利以實現(xiàn)公平社會,而不是減少、限制或錯誤地指導人類自治。 1.1人類監(jiān)督 人類的監(jiān)督可以幫助確保AI系統(tǒng)不影響人類自主或產(chǎn)生不良的后果。監(jiān)督可以通過不同的管理機制來實現(xiàn),包括human-in-the-loop (HITL)、human-on-the-loop (HOTL)、human-in-command (HIC)等方法。根據(jù)AI系統(tǒng)應用領(lǐng)域和潛在的風險,可以實現(xiàn)不同程度的監(jiān)督機制以支持不同的安全和控制措施。 要素2:技術(shù)魯棒性和安全性。可信賴的AI系統(tǒng)的關(guān)鍵部分就是技術(shù)魯棒性,這與防止傷害的原則是緊密相關(guān)的。技術(shù)魯棒性要求算法足夠安全、可靠和穩(wěn)健,以處理AI系統(tǒng)所有生命周期階段的錯誤或不一致。 2.1抵御攻擊和安全性。AI系統(tǒng)應該防止被黑或出現(xiàn)可以被攻擊的漏洞。攻擊可能是針對模型的、也可能是針對數(shù)據(jù)的、也可能是針對底層基礎(chǔ)設(shè)施的,包括軟件和硬件。如果AI系統(tǒng)被攻擊,其中的數(shù)據(jù)和系統(tǒng)行為可能會被修改,導致系統(tǒng)產(chǎn)生不同的決策(結(jié)果)。 2.2備用計劃和通用安全(safety)。AI系統(tǒng)應該有出現(xiàn)緊急情況的備用方案。也就是說AI系統(tǒng)可能從基于統(tǒng)計的決策轉(zhuǎn)為基于規(guī)則的決策,或者要求詢問人類操作者才可以繼續(xù)(如自動駕駛汽車)。必須保證系統(tǒng)所作的一切都不會對用戶和環(huán)境造成傷害。 2.3準確度。準確度是指AI系統(tǒng)能夠做出正確判斷和決策的能力。良好的開發(fā)和評估過程可以支持、緩解和糾正出現(xiàn)不準確的預測的非故意風險。如果偶爾的不準確的預測不可避免,那么系統(tǒng)應該要能計算這種錯誤情況發(fā)生的概率。在可能會對人類生命安全帶來影響的AI系統(tǒng)中,準確度的要求是非常重要的,比如自動駕駛和在刑事司法領(lǐng)域的應用。 2.4可靠性和可重現(xiàn)性。AI系統(tǒng)的結(jié)果必須要是可重現(xiàn)的和可靠的。對AI系統(tǒng)進行詳細檢查以防產(chǎn)生意外的傷害??芍噩F(xiàn)性是指科學家和政策制定者要能夠準確地描述AI系統(tǒng)的行為。 要素3:隱私和數(shù)據(jù)管理。公民應該完全控制自己的數(shù)據(jù),同時與之相關(guān)的數(shù)據(jù)不會被用來傷害或歧視他們。 3.1隱私和數(shù)據(jù)保護。AI系統(tǒng)必須確保系統(tǒng)的整個生命周期內(nèi)都要確保隱私和數(shù)據(jù)保護。這既包括用戶提供的信息,也包括用戶在和系統(tǒng)交互過程中生成的信息。同時要確保收集的數(shù)據(jù)不會用于非法地或不公平地歧視用戶的行為。 3.2數(shù)據(jù)質(zhì)量和完整性。數(shù)據(jù)集的質(zhì)量對AI系統(tǒng)的性能非常關(guān)鍵。收集的數(shù)據(jù)可能是含有偏見的、不準確的、有錯誤的。這些數(shù)據(jù)在用于訓練之前要進行清洗,去除這些有偏見的、不準確的、有錯誤的數(shù)據(jù)。同時還要確保數(shù)據(jù)的完整性。如果給AI系統(tǒng)的數(shù)據(jù)是惡意的就可能會改變系統(tǒng)的行為。在規(guī)劃、訓練、測試和實現(xiàn)的整個過程中都要對數(shù)據(jù)集進行測試和處理。 3.3對數(shù)據(jù)的訪問。在處理個人數(shù)據(jù)時,都會用到管理數(shù)據(jù)訪問的數(shù)據(jù)協(xié)議。協(xié)議應該列出誰以及什么情況下可以訪問數(shù)據(jù)。 要素4:透明性。應確保AI系統(tǒng)相關(guān)元素的可追溯性,包括數(shù)據(jù)、系統(tǒng)和商業(yè)模型。 4.1可追溯性。AI系統(tǒng)產(chǎn)生決策使用的數(shù)據(jù)集和過程都應該記錄下來以備追溯,并且應該增加透明性,具體包括收集的數(shù)據(jù)和算法使用的數(shù)據(jù)標記??勺匪菪园蓪徲嬓院涂山忉屝?。 4.2可解釋性。可解釋性就是要解釋AI系統(tǒng)的技術(shù)過程和相關(guān)的決策過程。技術(shù)可解釋性要求AI做出的決策是可以被人們所理解和追溯。在AI系統(tǒng)會對人類的生命造成重大影響時,就需要AI系統(tǒng)的決策過程有一個合理的解釋。 4.3通信。人類有權(quán)知道與其通信的是人類還是AI系統(tǒng),這就要求AI系統(tǒng)是可被識別的。 要素5:多樣性、非歧視性和公平性。AI系統(tǒng)應考慮人類能力、技能和要求的總體范圍,并確??山咏浴?/span>該需求與公平性原則是緊密相關(guān)的。 5.1避免不公平的歧視。AI系統(tǒng)使用的數(shù)據(jù)集可能會不可避免的存在歧視、不完整和管理不當?shù)葐栴}。這類數(shù)據(jù)集的歧視可能會造成AI系統(tǒng)的針對特定人群或個人的歧視。AI系統(tǒng)開發(fā)的方式也可能會出現(xiàn)不公平的歧視問題,可以通過以一種明確和透明的方式來分析和解決系統(tǒng)的目的、局限性、需求和決策來解決。 5.2輔助功能和通用設(shè)計。尤其在B2C領(lǐng)域,系統(tǒng)可能是用戶為中心的,以一種允許所有人都平等地使用AI產(chǎn)品和服務(wù)的方式,即無論年齡、性別、能力和其他特征。因此針對殘障人士的輔助功能就顯得格外重要,AI系統(tǒng)的設(shè)計不應該采用一種通用的設(shè)計。 5.3相關(guān)利益方參與。為了開發(fā)出可信賴的AI系統(tǒng),建議對受系統(tǒng)直接或間接影響的利益相關(guān)方進行咨詢。 要素6:社會和環(huán)境福祉。應采用AI系統(tǒng)來促進積極的社會變革,增強可持續(xù)性和生態(tài)責任。 6.1可持續(xù)和環(huán)境友好型AI。AI系統(tǒng)是為了解決一些最迫在眉睫的社會難題,同時要保證盡可能地以環(huán)境友好型的方式出現(xiàn)。系統(tǒng)的開發(fā)、實現(xiàn)和使用過程,以及整個供應鏈都應該進行這方面的評估。 6.2社交影響。AI系統(tǒng)在社會生活各領(lǐng)域的應用可能會改變我們對社會機構(gòu)的理解,影響我們的社會關(guān)系。AI在增強我們的社交技能的同時,可能也會減弱我們的社交技能,這會對人們的身心健康帶來影響。 6.3社會和民主。同時要考慮評估AI應用對民主、社會的影響,因為AI系統(tǒng)極有可能應用于政治決策和選舉相關(guān)的民主進程中。 要素7:問責。應建立機制,確保對AI系統(tǒng)及其成果負責和問責。 7.1可審計性。可審計性包含了對算法、數(shù)據(jù)和設(shè)計過程的評估,這并不意味著與AI系統(tǒng)相關(guān)的商業(yè)模型和知識產(chǎn)權(quán)需要公開。通過內(nèi)部和外部審計者的評估,加上評估報告可以驗證該技術(shù)的可信賴性質(zhì)。在影響基本權(quán)利的應用中,AI系統(tǒng)應該進行獨立審計,比如與人身安全(safety)相關(guān)的應用。 7.2最小化負面影響。識別、評估、記錄、最小化AI系統(tǒng)的負面效應對AI應用是非常重要的。涉及開發(fā)、應用和AI系統(tǒng)使用的影響評估可以幫助減少負面影響。 -4- 可信賴AI的實現(xiàn)是一個持續(xù)的過程,覆蓋AI系統(tǒng)的全生命周期,使用的方法包括技術(shù)方法和非技術(shù)方法,如下圖所示: 技術(shù)方法包括:實現(xiàn)可信賴AI的技術(shù)方法覆蓋AI系統(tǒng)的設(shè)計、開發(fā)和使用的全生命周期中,具體包括:構(gòu)建可信賴AI架構(gòu);設(shè)計中融入倫理和法律要求;解釋方法;測試和驗證;服務(wù)質(zhì)量指標。非技術(shù)方法包括:監(jiān)管(管理);行為準則;標準;認證;通過管理框架進行審計;通過教育培養(yǎng)倫理觀;利益相關(guān)方參與和社會對話;多方參與設(shè)計。 報告目錄如下 |
|
|