文/蓉蓉 百度首席科學(xué)家吳恩達(dá)近日接受科技博客GigaOM采訪時表示,“創(chuàng)造力并非深不可測,人工智能不僅可以獲得創(chuàng)造力,甚至有可能具備意識?!?/strong>他還提到,“中國科技行業(yè)的發(fā)展速度是激動人心的。然而現(xiàn)在卻有一個令人吃驚的事實擺在我們面前:很多東西是最先在中國實現(xiàn)的,可能一年之后才傳入美國,但人們首先想到的還是美國的例子,而不是中國的?!?/strong> 圖1: 百度首席科學(xué)家吳恩達(dá) 無獨有偶,LSTM之父于爾根·施密德胡伯去年參加訪談時便提到:早在25年前,人工智能就具有意識了。他說,“我們早在25年前就擁有了少量的、基礎(chǔ)的且有意識的學(xué)習(xí)系統(tǒng)?;仡櫛藭r,我已經(jīng)提出通用學(xué)習(xí)系統(tǒng)由兩個模塊組成。隨著與環(huán)境的交互越來越深入,大量的數(shù)據(jù)也涌入其中,曾經(jīng)被譽為意識的東西,實際上在學(xué)習(xí)的推移中變成了自動化與無意識的活動。” (注:于爾根·施密德胡伯(Jürgen Schmidhuber)可謂深度學(xué)習(xí)的元老,他在1992年提出了多層級網(wǎng)絡(luò),利用無監(jiān)督學(xué)習(xí)訓(xùn)練神經(jīng)網(wǎng)絡(luò)的每一層,再利用反向傳播算法調(diào)優(yōu)。而在1997年,他與Sepp Hochreiter共同發(fā)表了一篇論文,提出了長短期記憶(LSTM)的概念。) 圖2:LSTM之父于爾根·施密德胡伯 智力的發(fā)展,無論是人工智能或是人類本身,最終都是走向認(rèn)知領(lǐng)域的增長和知識的學(xué)習(xí)。而自人工智能的第一代構(gòu)想產(chǎn)生以來,行業(yè)對其的認(rèn)知層面尚圍繞在如何去發(fā)展的問題。公眾里對這個領(lǐng)域的問題談?wù)撟疃嗟氖牵何覀兩踔吝€不能了解自己本身,又如何能夠創(chuàng)造出另一種高智商的意識? 20世紀(jì)60年代,人工智能先驅(qū)圖靈提出著名的問題:“機器可以有思維嗎?”長期以來,哲學(xué)家也一直在思考,人造模擬裝置有沒有感覺?人工智能(AI)是不是應(yīng)該有意識,甚至感覺與情緒?這是個值得慎思的問題。 圖3:電影機械姬中機器人艾娃自主意思覺醒 那么,我們?nèi)绾闻袛嘁慌_機器是否具備了這種難以言傳的意識知覺的稟性?我們依賴于這樣一種認(rèn)識:只有具備意識的機器才能主觀描述普通照片里的場景是“對”還是“錯”。這種綜合判斷照片內(nèi)容的能力——比如看見大象蹲在埃菲爾鐵塔頂端,就能夠知道這不合情理——是構(gòu)成意識思維的一種基本屬性。但現(xiàn)在機器尚不具備這種能力:即使是讓滿滿一房間的IBM超級電腦聯(lián)手上陣,也無法判斷畫面中哪些內(nèi)容合乎情理。 在技術(shù)術(shù)語中,真正的挑戰(zhàn)被稱為“意識的難題”。也就是體驗。哲學(xué)家們傾向于把它稱為“qualia”(感受)。當(dāng)你擁有一種體驗——比如看日落,聽最喜歡樂隊演奏你最喜愛的歌曲,聞到卡布其諾的香味,等等——這是一些抽象的體驗,但無法說明原因。 圖4:人工智能是否應(yīng)該有情緒 紐約大學(xué)哲學(xué)家David Chalmers把它稱之為是一個“意識難題”,他表示,比起定義機器人的意識,我們不如關(guān)注它們?nèi)狈κ裁础?/strong>最值得注意的是,Chalmers說,它們?nèi)狈ψ杂梢庾R和記憶。然而,我們中的很多人也生活在一個無法打破的常規(guī)中。并且很多人都有過極度痛苦的回憶,但是沒有人覺得這些記憶應(yīng)該被抹去。 但是,人工智能的發(fā)展會帶來問題,一旦人工智能和人類并存在世界上,就面臨一個問題,什么樣的人工智能可以融入到人類社會?有學(xué)者認(rèn)為可以通過圖靈測試——讓一個機器跟人對話,如果30%的人認(rèn)為他是人他就是人。圖靈測試實際上有兩端,目前認(rèn)為人工智能的產(chǎn)生是單向性,一旦跨過一個界限達(dá)到一定復(fù)雜度就變成了人,將來社會中如果一旦人工智能跟人類并存,它是否是人就要交給人來判斷。 圖5:“暴力的享受往往會帶來暴力的結(jié)局?!?/strong> 紐約理工大學(xué)教授Kevin LaGrandeur最近發(fā)文表示:“如果一個機器真的能夠‘感到’不同程度的內(nèi)疚,那么我們會否面臨機器抑郁或是機器‘自殺’的問題呢?”如果我們開發(fā)出了這樣的強人工智能,我們將面臨“創(chuàng)造了痛苦”的道德倫理問題。 這是當(dāng)前人工智能面臨的困境。一方面,如果沒有經(jīng)歷,沒有多元,人工智能的意識不會健全;而另一方面,像人類那樣懂得了認(rèn)知的人工智能,其將和人類一樣受到困擾。 · E N D · 關(guān)注微信公號:caia617,即刻加入中國人工智能機器人聯(lián)盟微信交流群 原創(chuàng)聲明:本文屬中國人工智能機器人產(chǎn)業(yè)聯(lián)盟(CAIA)原創(chuàng)專稿,轉(zhuǎn)載請注明來源、出處,如轉(zhuǎn)載后惡意刪除或篡改文章來源者,一經(jīng)發(fā)現(xiàn),CAIA將保留追究法律責(zé)任的權(quán)利。 |
|
|