电竞比分网-中国电竞赛事及体育赛事平台

分享

我們準(zhǔn)備好迎接機器人了嗎?

 魔洛哥 2019-09-08

我們準(zhǔn)備好迎接機器人了嗎?| 社會科學(xué)報

隨著人工智能技術(shù)的高速發(fā)展,其安全性也日益受到全世界的高度關(guān)注。一些學(xué)者認為,對人工智能技術(shù)不加約束地開發(fā),會讓機器獲得超越人類智力水平的智能,并引發(fā)一些難以控制的安全隱患。美國《外交事務(wù)》雜志2019年7/8月刊發(fā)表學(xué)者肯尼思·庫克耶(Kenneth Cukier)的文章《我們準(zhǔn)備好迎接機器人了嗎?如何思考人工智能的未來》(Ready for Robots? How to Think About the Future of AI),探討了人工智能的安全性問題。

原文 :《我們準(zhǔn)備好迎接機器人了嗎》

編譯 |熊一舟

圖片 |網(wǎng)絡(luò)

維納的警告:深度學(xué)習(xí)喚起恐懼

維納是人工智能領(lǐng)域的創(chuàng)始人之一,他是個神童,14歲大學(xué)畢業(yè),四年后在哈佛大學(xué)獲得哲學(xué)博士學(xué)位。為了描述他關(guān)于動物和機器如何依賴反饋機制來進行控制和交流的研究,維納選擇了“控制論”(cybernetics)這個詞。1948年,他將自己的著作命名為《控制論》。在該書出人意料地成為暢銷書之后,其他研究人員開始用這個詞來形容他們讓電腦像人腦那樣處理信息的嘗試。

自從《控制論》出版以來,維納就開始考慮這項技術(shù)的社會、政治和倫理方面的問題,他得出了一些令人灰心的結(jié)論。他擔(dān)心由真空管組成但具有復(fù)雜邏輯的弗蘭肯斯坦怪物有一天可能會攻擊它們的創(chuàng)造者。他在1950年寫道:“留給我們的時間不多了,我們必須在正義與邪惡之間作出選擇?!薄拔覀儽仨毻V褂H吻鞭打我們的鞭子?!?/p>

從20世紀50年代到90年代,大多數(shù)人工智能都是用手工編碼的規(guī)則編寫計算機程序。相比之下,統(tǒng)計方法使用數(shù)據(jù)根據(jù)概率做出推斷。換句話說,人工智能從試圖描述貓的所有特征以便計算機能夠識別圖像中的貓,到向算法輸入數(shù)萬張貓的圖像,以便計算機能夠自己找出相關(guān)的模式。這種“機器學(xué)習(xí)”技術(shù)可以追溯到20世紀50年代,但當(dāng)時只在有限的情況下有效。由于計算機處理技術(shù)的飛速發(fā)展和數(shù)據(jù)的爆炸式增長,如今更為復(fù)雜的版本——深度學(xué)習(xí)——已經(jīng)取得了長足進步。

我們準(zhǔn)備好迎接機器人了嗎?| 社會科學(xué)報

維納后來放棄了他最悲觀的警告。但今天,隨著人工智能開始侵入發(fā)達社會生活的幾乎每個方面,許多思想家又回到了維納半個多世紀前開始提出的問題上。社會如何權(quán)衡謹慎與創(chuàng)新的速度、準(zhǔn)確性與可解釋性、隱私與性能之間的關(guān)系,將決定人類與智能機器之間發(fā)展出何種關(guān)系。人類面臨的風(fēng)險很高,但如果不妥善處理這些關(guān)系,人工智能將難以向前發(fā)展。

我們準(zhǔn)備好迎接機器人了嗎?| 社會科學(xué)報

警惕“邁達斯國王問題”

一般來說,人工智能有兩種類型。第一種是通用人工智能,即AGI(Artificial General Intelligence):能夠像人類一樣思考、計劃和反應(yīng)的系統(tǒng),同時還擁有“超智能”(superintelligence)。通用人工智能系統(tǒng)了解現(xiàn)有的大部分信息,能夠以閃電般的速度處理這些信息,而且永遠不會忘記其中的任何一個。想象一下谷歌有自己的想法(也許還有意愿)。第二種形式的人工智能是狹義的人工智能:能夠很好地完成獨立任務(wù)的系統(tǒng),比如自動駕駛汽車、語音識別技術(shù),以及使用先進成像技術(shù)進行醫(yī)學(xué)診斷的軟件。對通用人工智能的恐懼是,它可能會在人類控制之外自行進化。對狹義人工智能的擔(dān)憂在于,它的人類設(shè)計師可能無法完美地表明自己的意圖,從而帶來災(zāi)難性的后果。

對于通用人工智能是否可能完全實現(xiàn),專家們甚至沒有達成共識。但是那些相信通用人工智能系統(tǒng)的人擔(dān)心,如果通用人工智能系統(tǒng)不共享人類價值觀,它就可能會引起麻煩。計算機科學(xué)家丹尼爾·希利斯(Daniel Hillis)在《潛在思維》(Possible Minds)一書中寫道:“人類可能被視為小麻煩,就像野餐中的螞蟻一樣?!薄拔覀冏顝?fù)雜的機器,比如互聯(lián)網(wǎng),已經(jīng)超出了單個人所能理解的范圍,它們表現(xiàn)出來的行為可能遠遠超出了我們的認知范圍。”

問題在于如何確定這樣一個系統(tǒng)的目標(biāo),或者工程師們所說的“價值對齊”。人們擔(dān)心的不一定是人工智能會變得有意識,想要毀滅人類,而是這個系統(tǒng)可能會誤解人類給它的指令。人工智能研究人員斯圖爾特·拉塞爾將這一問題稱為“邁達斯國王問題”,這一說法源自古希臘神話,說的是國王實現(xiàn)了他的愿望,把他接觸的所有東西都變成金子,結(jié)果卻發(fā)現(xiàn)自己既不能吃也不能喝金子。通用人工智能被比作“邁達斯國王問題”,它能夠執(zhí)行幾乎所有要求它執(zhí)行的任務(wù)。如果一個人要求它生產(chǎn)回形針,但沒有具體說明數(shù)量,這個系統(tǒng)——不明白幾乎任何東西都比回形針對人類的作用大——將把整個地球變成一個回形針工廠,然后殖民其他星球開采更多的礦石來生產(chǎn)回形針。這是一個可笑的例子,但卻是一個廣為流傳的嚴肅例子。

我們準(zhǔn)備好迎接機器人了嗎?| 社會科學(xué)報

創(chuàng)意性預(yù)防操作漏洞

持不同觀點的另一方則對這種擔(dān)憂不屑一顧。他們認為人工智能的危險極小,至少目前如此。正如斯坦福大學(xué)人工智能研究人員安德魯·吳(Andrew Ng)所言,擔(dān)心人工智能就像擔(dān)心“火星上的人口過?!币粯?。他認為,研究人員應(yīng)該努力讓人工智能發(fā)揮作用,而不是設(shè)計阻礙它的方法。

心理學(xué)家史蒂文·平克(Steven Pinker)則更進一步,他認為,對人工智能的可怕?lián)鷳n其實是種“自我駁斥”。他認為,暗淡的前景取決于以下前提:第一,人類的天賦如此之高,以至于他們可以設(shè)計出一個無所不知、無所不能的人工智能,但又如此愚蠢,以至于會讓它控制宇宙,而不會去測試它是如何工作的;第二,人工智能是如此的聰明,它可以成功地改造元素并重新連接大腦,但它是如此低能,以至于它會因為一些基本的誤解而造成嚴重破壞。

我們準(zhǔn)備好迎接機器人了嗎?| 社會科學(xué)報

失控的人工智能系統(tǒng)會危害人類的觀點雖基于科學(xué),但更是一種想象。投入大量資源防止這種結(jié)果將造成誤導(dǎo)。正如平克所指出的,反烏托邦預(yù)言忽視了規(guī)定、法律和制度在規(guī)范技術(shù)方面的作用。更有說服力的論點考慮到了這些因素,并要求嚴格執(zhí)行基本的保障措施。在這方面,網(wǎng)絡(luò)安全的歷史提供了一個有用的參照。當(dāng)工程師們創(chuàng)建互聯(lián)網(wǎng)時,他們忽略了在軟件協(xié)議中構(gòu)建強大安全性的必要性。今天,這構(gòu)成了互聯(lián)網(wǎng)的一個重要脆弱點。人工智能設(shè)計師應(yīng)該從這個錯誤中吸取教訓(xùn),在一開始就把安全因素融入到人工智能生產(chǎn)中,而不是試圖在以后加以補救。

認知科學(xué)家丹尼爾·丹尼特(Daniel Dennett)為安全難題提出了一個更有創(chuàng)意的解決方案。為什么不像要求藥劑師和土木工程師那樣,要求人工智能操作員獲得執(zhí)照呢?“在保險公司和其他承銷商的壓力下,”他寫道,監(jiān)管機構(gòu)可能“迫使人工智能系統(tǒng)的創(chuàng)造者竭盡全力,尋找并揭示其產(chǎn)品中的弱點和漏洞,并培訓(xùn)那些有權(quán)操作這些系統(tǒng)的人?!钡つ崽氐陌姹静粫裢ǔ5臏y試那樣評估機器模仿人類行為的能力,而是對人類進行評判:除非一個受過高度人工智能訓(xùn)練的人能夠發(fā)現(xiàn)系統(tǒng)中的缺陷,否則它無法投入生產(chǎn)。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多