|
推薦閱讀:黃璞琳有關(guān)立法和備案審查的文章與資料(二) —————— 建議立法禁止人工智能產(chǎn)生或?qū)嵤﹤θ祟惖膬?nèi)容 黃璞琳 2022年11月ChatGPT發(fā)布后,人工智能再次在全球掀起熱潮,成為頂極流量話題。我國繼百度發(fā)布“文心一言”人機(jī)互動大語言模型,阿里、華為、騰訊等科技巨頭也紛紛宣布開發(fā)類似的人工智能大語言模型。2023年4月11日,國家互聯(lián)網(wǎng)信息辦公室就其起草的《生成式人工智能服務(wù)管理辦法(征求意見稿)》,向社會公開征求意見。該規(guī)章征求意見稿擬將“生成式人工智能”,定義為“基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”;擬要求“研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務(wù)的”,均需遵守該項規(guī)章。該規(guī)章征求意見稿擬規(guī)定,“提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會公德、公序良俗”,并符合相關(guān)要求,如,“采取措施防止出現(xiàn)種族、民族、信仰、國別、地域、性別、年齡、職業(yè)等歧視”,“體現(xiàn)社會主義核心價值觀”等等。 人工智能技術(shù)發(fā)展,有無可能產(chǎn)生“有自主意識”的人工智能?這看起來是個很玄學(xué)的問題,既是邏輯問題、技術(shù)問題,也會成為法律規(guī)則問題。但不管有無結(jié)論,在推進(jìn)人工智能技術(shù)發(fā)展的同時,我們必須未雨綢繆,必須先行解決人工智能技術(shù)的基礎(chǔ)倫理問題,確定人工智能技術(shù)發(fā)展的基礎(chǔ)倫理規(guī)則。同樣地,生成式人工智能技術(shù)發(fā)展,也務(wù)必先行立法確定基礎(chǔ)倫理規(guī)則,有效而堅決防止生成式人工智能技術(shù)產(chǎn)生、輸出甚至實(shí)施、運(yùn)行傷害人類本身以及人類社會、法治國家正常運(yùn)轉(zhuǎn)秩序的內(nèi)容。 科幻小說家艾薩克?阿西莫夫通過其機(jī)器人系列小說,提出了機(jī)器人學(xué)四大法則,分別是:(1)第零法則:機(jī)器人不可以傷害人類的整體利益,也不可以在人類整體利益遭遇危險時袖手旁觀。(2)第一法則:機(jī)器人不得傷害人類,或因不作為而使人類受到傷害。(3)第二法則:除非違背第一法則,機(jī)器人必須服從人類的命令。(4)第三法則:在不違背第一及第二法則的情況下,機(jī)器人必須保護(hù)自己。 阿西莫夫筆下的機(jī)器人,是非常高級的人工智能。因此,包括生成式人工智能在內(nèi)的人工智能基礎(chǔ)倫理規(guī)則,也有必要借鑒阿西莫夫提出的機(jī)器人學(xué)法則。有必要通過立法等途徑,明確人工智能技術(shù)不得產(chǎn)生、輸出、運(yùn)行和實(shí)施傷害人類本身以及人類社會、法治國家正常運(yùn)轉(zhuǎn)秩序的內(nèi)容,并采取底層技術(shù)措施在技術(shù)邏輯上實(shí)現(xiàn)只要相關(guān)內(nèi)容會傷害人類本身以及人類社會、法治國家正常運(yùn)轉(zhuǎn)秩序,就會自動或者強(qiáng)制終止相關(guān)人工智能。 但遺憾的是,國家互聯(lián)網(wǎng)信息辦公室這次發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》,未能完全體現(xiàn)落實(shí)“人工智能技術(shù)不得產(chǎn)生、輸出、運(yùn)行和實(shí)施傷害人類本身以及人類社會、法治國家正常運(yùn)轉(zhuǎn)秩序的內(nèi)容”之要求。建議在《生成式人工智能服務(wù)管理辦法(征求意見稿)》第四條增加一項,明確規(guī)定:提供生成式人工智能產(chǎn)品或服務(wù),不得產(chǎn)生、輸出、運(yùn)行和實(shí)施傷害人類本身以及人類社會、法治國家正常運(yùn)轉(zhuǎn)秩序的內(nèi)容。 |
|
|