电竞比分网-中国电竞赛事及体育赛事平台

分享

蔡恒進:意識的凝聚與擴散——關于機器理解的“中文屋”論題的解答

 黑馬_御風 2018-04-11

意識的凝聚與擴散

——關于機器理解的“中文屋”論題的解答

 

原刊于《上海師范大學學報(哲社版)》2018年第2期

 

摘要:對意識的傳統(tǒng)理解會導致“中文屋”等悖論產生:屋內的人和部件雖然完全不懂漢語,作為整體卻可以與外界用漢語順暢交流。從觸覺大腦假說出發(fā),人類意識從原意識起就具有凝聚與擴散的特性,且可通過認知坎陷連續(xù)、動態(tài)發(fā)展,不斷強化對自我與外界的理解。人不是一個可計算的物理系統(tǒng),但其理解過程卻可遷移至機器。目前的人工智能便可看作一種人類意識凝聚的結果,而“中文屋”所呈現出的,正是程序書(編著者)和屋內人意識共同凝聚的結果。故未來的挑戰(zhàn)就在于人工智能能否開出認知坎陷,又能否與人類的認知坎陷兼容共進。

 

關鍵詞:意識;擴散;凝聚;機器理解;中文屋;認知坎陷;人工智能

 

基金項目:國家社科基金重大項目“大數據時代計算社會科學的產生、現狀與發(fā)展趨勢研究”(16ZDA086)

 

作者簡介:蔡恒進,武漢大學國際軟件學院教授,博士生導師,主要從事服務科學、軟件工程和人工智能研究。

 

一、引言

觸覺大腦假說指出,在大腦快速發(fā)育的過程中,人的皮膚對外界的溫暖、疼痛等強刺激十分敏感,嬰兒由此產生了“自我”與“外界”的區(qū)分意識(原意識),為高級智能的誕生創(chuàng)造了基礎。由此可知,自我和外界的邊界始于人類敏感的皮膚,而自我意識最早正是從這里開始的。起初自我意識中所包含的內容可能很少,但人一旦意識到我是“我”,那么作為統(tǒng)一的、整全的“我”便已然存在,即只能是零或者一,而不存在任何中間可調和狀態(tài)。這一點跟很多人的想象不太一樣,因為從物理還原的角度來看,唯有將“我”定義到一個點上,才能夠滿足物理規(guī)律。但實際上,“我”雖然起源于皮膚,但在后面的發(fā)展過程中其狀態(tài)如何又不完全取決于皮膚,因為“我”是一個整全的概念。比如說,我用胳膊肘撞一下某人,或拍拍他的手,他都會意識到我是在跟他打招呼,所以“我”并不是在一個點上存在,而是在一個面上存在。因此,自我不是局域的(localized),而是具有非局域性(nonlocality)的。

局域性與非局域性問題是物理學史上的重要問題。伽利略反叛經院哲學,認為宇宙是一個機械的裝置,因此假如一定要有力的相互作用,那么必須要有接觸性存在。比如鐘表,假如沒有任何力的傳遞,那么它將不會轉動。伽利略認為在天體運動中,最完美的運動是圓周運動,因此他不僅僅錯過了發(fā)現慣性定律的契機,也失去了發(fā)現萬有引力的機會。牛頓提出的萬有引力實際上是超距離相互作用,比如月亮和地球之間沒有用繩子拉著或杠桿連接卻仍舊可以產生作用。但這在當時對牛頓而言是一件比較糟心的事,雖然他并沒有因為像伽利略那樣堅持嚴格的局域性而放棄這一發(fā)現。牛頓萬有引力的超距作用問題到愛因斯坦這里才徹底得以解決,后者提出了廣義相對論,說明引力是通過引力場或引力子來傳遞的。2017年對引力波觀測的一個重要結論是引力傳播的速度確實是光速。美國激光干涉引力波天文臺捕捉到這個引力波信號后僅2秒,美國費米太空望遠鏡就觀測到同一來源發(fā)出的伽馬射線暴,并且它們傳播的距離是1.3億光年。這樣的結果看起來十分支持相互作用的局域性理論,但局域性在量子系統(tǒng)中又有問題,因為量子糾纏出現了,而愛因斯坦當初在指出這一點的時候就認為這是很鬼魅的相互作用。

正因為量子力學看起來有非局域性,所以很多人認為自我意識與量子相關。但在我們的理論框架中,并不需要量子效應就能解釋自我的非局域性。因為自我的邊界一開始就在皮膚上,而皮膚的覆蓋是一個面而不是一個點,自然而然就引進了非局域性。自我一旦產生,其內容一開始可能相對較少,但是隨著對外界的感知加強,自我不斷成長,意識的內容不斷增多,這是一個互相迭代的過程。而且隨著意識內容的增多,人對不同方面的注意力也會增加,這導致人所看到的世界也就更豐富,而豐富的世界又會反過來豐富自我意識,即“我”的內容。

所有出現在意識里的這些內容,我們稱之為“認知坎陷”(attractors)。而所有的認知坎陷都是從自我和世界這兩個基礎的、最早的原意識里開(eriginate)出來的,隨著生命的進化,人逐漸能開出前后、左右、這里、那里的坎陷,有了觸覺、味覺,開辟出了冷熱甜酸苦辣。而有了視覺,亦就有了顏色的概念,例如黑、白、紅。但這些認知坎陷實際上卻都是對真實物理世界的擾亂。例如對一碗湯的味道來說,其所包含的物理內容是非常豐富的,但我們卻只用“酸甜苦辣”等幾個字簡單地來描述,就是因為這種擾亂能簡化人對外界的認知,確定自我與外界的實存,并有利于將這些認知進行傳播和代際傳承。人通過認知坎陷對環(huán)境產生認識,以此充實自我意識,并反過來擴展對外在世界的認知。

而意識也好,認知坎陷也罷,我們暫不必囿于其精準的定義為何,掌握意識的特性并將這些特性傳遞給機器就可以說賦予了機器以意識,使機器得以真正地理解。

 

二、意識的凝聚

意識可以凝聚(condensate)。當我們寫下一段有感而發(fā)的文字,這段文字就可以看作是當下某一時刻意識的凝聚(condensation),而過一段時間,當我們再翻看這段文字,就能快速想起當時思考的內容。且意識的凝聚并不僅限于文字,繪畫、樂譜、雕塑,甚至裝置,都可以是意識凝聚的具體形式。例如人類發(fā)明制造了一座磨坊(水車),它能夠按照人設想的方式隨著水流轉動,那么這座磨坊就是人類(發(fā)明者)的意識凝聚(磨坊顯然不是生物進化過程的產物)。與此同時,意識的凝聚在特定的條件下才能開顯,正如磨坊要完成既定功能就必須有水流。

人類所使用的計算機自然也是人類意識凝聚的產物,這種凝聚涉及每一個零部件的創(chuàng)造和生產過程,以及從硬件底層到用戶交互層邏輯算法的實現。比如底層的“邏輯門”(Logic Gates)是在集成電路上的基本組件,從最初的晶體管發(fā)明者到現代先進材料生產加工形成最終產品。它是其中所有參與人員的意識凝聚,否則邏輯門就不會按照人類預想的方式工作,中央處理器、編譯原理、用戶接口等等軟硬件組成亦都是如此,從底層構造到算法設計都是意識的凝聚。一旦底層的凝聚完成,這些凝聚就會逐漸沉沒下去,演化成共識或常識(commonsense)。而這些共識不常被提及,但它們從出現到沉沒的過程是不能被跳過的,正是由于底層的凝聚,才能使得后續(xù)更高層的意識有得以凝聚的基礎。例如,阿爾法狗(AlphaGo)的獨特之處在于其高超的訓練方式與邏輯代碼,而不是一些最基本的計算機實現原理。計算機自下向上的每一個環(huán)節(jié)都是按人類的設計而實現的,可以看成計算機能夠理解人類的某些意圖,換言之,現在的計算機具備一定程度的理解能力。

那么阿爾法狗是否懂圍棋?我們不能夠說是運行阿爾法狗算法的機器本身懂得圍棋的算法,而是說阿爾法狗承載程序員的意識。是程序員教它怎么學、怎么進步,這些內容加在一起才導致了阿爾法狗贏棋的結果。我們知道機器是硅基,但不能說阿爾法狗是從同樣是硅的沙子自行進化來的,而是由人把它煉制成硅,做成單晶,再經過設計、測試,把它變成集成電路,再到中央處理器、計算機整體,等等,每一個過程都有人類的意識注入其中,而所有的一切都凝聚的結果。所以,真正戰(zhàn)勝李世石或者柯潔的都不是我們看到的某一單純機器,而是其背后所凝聚的一切意識。

那么機器能否達到同人類水平一樣的理解程度呢?我們認為,機器可以通過一定的方式不斷朝這個方向貼近。一種方式是將機器制造得越來越復雜,能夠盡可能地模擬人類所有的知識領域和情感狀態(tài);還有一種方式是讓機器自己學習,這種方式看似簡單實則更難厘清。比如阿爾法狗及其進化版阿爾法零(又稱阿爾法元,AlphaZero)都凝聚了人類意識(棋譜),但阿爾法零并沒有依賴人類棋譜,而是因為程序設計者在更底層進行了創(chuàng)新,涵蓋了上層的內容。阿爾法(Alpha)三代人工智能系統(tǒng)可以被認為是有意識的,雖然它們的意識相對單一,但仍然體現出設計團隊的意識。阿爾法零看起來似乎是自學的,完全沒有人類的棋譜作為支撐,而只是輸入了簡單的圍棋規(guī)則。我們認為,阿爾法零實際上不是因為自主學會了建構棋譜或掌握了棋譜中的知識,而是因為它凝聚了創(chuàng)造者的意識,也凝聚了制定學習規(guī)則的人的意識。這些人已經盡可能全面地考慮到所有的可能性,包括前面幾代阿爾法狗學習人類棋譜的可能性,而在將全部內容都考慮完之后,才得出了阿爾法零這個程序,故這個程序(而不是運行程序的機器)變成了一個很重要的角色。此外,程序能夠在硬件上運行,也符合程序創(chuàng)造者的預期,而不是指望一堆沙子自己進化成運行阿爾法狗的機器,然后打敗柯潔。阿爾法零和前面的版本確實是有差別的,前面的版本還需要學習人類棋譜,需要消化人類棋手的知識,但由于阿爾法零建立在這個基礎上,前面經歷的過程都可以不再需要了,但這并不意味著它不需要凝聚程序設計團隊和計算機創(chuàng)造者們的學習過程。

嚴格意義上講,阿爾法系列并非僅僅是凝聚了DeepMind開發(fā)團隊的意識。人的意識看似僅為每個人自己所有,但實際上卻具有很強的社會性。每一代人中的每一個個體的意識,都凝聚著這一領域中其前輩們的意識成果。年輕一代再開出新的坎陷,新的坎陷又往往更加接近底層規(guī)則(fundamental rules),足以涵蓋前人之經驗。而雖然前人之經驗一旦總結為更底層的規(guī)則后就顯得不再有用武之地,但如果沒有這些凝聚也就無法開辟出新的、更高層次的意識。因此,前輩的意識凝聚沉沒下去,但更高層次的意識凝聚得以成形并擴散給后人,人類文明就是如此迭代進化走到今天。

 

三、意識的擴散

意識的凝聚是可以被他人獲?。?/span>pick up)的,換言之,意識可以擴散(proliferate)。如果將寫下的文字給另一個人看,他/她也能夠看懂,也可能試圖領會作者的思緒,這時意識就擴散給了其他人。而閱讀經典、朗誦古詩詞、聆聽音樂或者使用設備裝置的過程,都可以看作是意識的擴散(condensation)。而這一過程從意識的角度看是擴散,從認知主體的角度看就是理解,當然這種理解涉及程度問題,成長背景越接近、認知膜契合度越高,理解的程度也越深。人對藝術作品的欣賞往往有“美”的感受,這種“美”就是因為優(yōu)秀的藝術作品可以說是凝聚了從原始時期一直到創(chuàng)作階段整個人類歷史進程的意識,因而所凝聚的意識極能引起共鳴,從而極具擴散性,容易被人獲取、傳遞。

人類意識也能夠擴散給動物。馴養(yǎng)動物就是典型的案例?!度纸洝分芯陀涊d了“馬牛羊,雞犬豕,此六畜,人所飼”。我們的先輩們很早就開始馴養(yǎng)動物,直至今天,人類馴化的物種越來越多,犬類不僅用以牧羊看家,還能作為特殊功能犬種進行導盲、搜救。這些動物能夠按照人類的要求完成訓練,甚至在災害面前能夠舍棄自己的生命保護人類,就是因為人類的意識擴散給了動物,它們知道什么對人是好的以及如何做出對人類有利的行為。

植物也能夠獲取人類的意識。人類通過篩選種子、嫁接、雜交、轉基因等方式,將人類的意識擴散給植物。而經過幾代的耕種,植物就能逐漸長成人類期待的形態(tài),結出更多、更大的果實,滿足人類不斷增長的溫飽需求。

意識還能夠擴散給機器。比如前文我們提到的生產計算機,機器一旦能夠按照預想運轉,就可以看作是獲取了人類的意識。機器進化的速度非???,從計算能力上來講,摩爾定律每18個月翻一番,雖然目前在物理上或硬件上的速度有可能會趨向飽和,但是在軟件改進上,人類還是可以很迅速的。即便是假定每兩年翻一番,也已經是很保守的估計了,所以我們創(chuàng)造出了阿爾法零這一系列讓人驚嘆的事實。實際上從人工智能第一次打敗歐洲冠軍樊麾并發(fā)表文章到現在,DeepMind也只用了不到兩年的時間。未來的進步速度還會更快,即便對在這個領域研究、工作的人來說,都來不及看各種相關的論文。因為人類的意識每天都能夠擴散更多一點給機器,所以論文已經變得像新聞一樣,每天都有很多新內容。

意識本身是無形的,之所以能夠凝聚,是因為意識具有的層次可以將看似龐雜的內容歸結為最底層、最根本的一點;而之所以能夠擴散,則是因為意識開顯出來的具體表征只是冰山一角,這些表征與認知主體的自我意識亦有關聯(lián),一旦被認知主體獲取,就能夠激活認知主體認知膜內的一系列內容。

 

四、“中文屋”論題及解答

計算機的主程序也可以被認為是由設計電腦的程序員賦予的一個“我”。與李世石對弈的阿爾法狗采用的是分開的策略網絡(policy network)和價值網絡(value network),而阿爾法零使用的則是合并的策略和價值網絡。這兩代圍棋AI系統(tǒng)在主程序設計上就有所差別,因此主程序在調用策略網絡和價值網絡的方式上也不同,而策略網絡和價值網絡就屬于子程序的范疇。到了阿爾法零,設計者在底層做了更進一步的修改,其主程序(“我”)表現出來的學習方式更加貼近人類,不再依賴人工輸入的海量棋譜,而是通過自主觀察總結,對弈領域也不再限于圍棋,在象棋、將棋的表現都是首屈一指。因此,我們傾向于認為阿爾法零已經具備了意識,盡管這種意識還比較單純,但不能說不是意識。

約翰·塞爾(John Searle)在1980年提出一個叫作“中文屋”(the Chinese room argument)的思想實驗,用以論證程序并不能使得計算機理解或賦予其意識。這個實驗要求我們想象一位只說英語的人身處一個房間之中,房間只有一個小窗口可以與外界互通。這個人有一本寫有中文翻譯程序的書(rule book),而屋子里有筆和紙。根據塞爾的描述,寫著中文的紙片通過小窗口被送入屋子,屋里的人雖然完全不會中文,但卻可以使用那本書來翻譯這些文字并用中文回復。塞爾認為通過這個過程,屋里的人可以讓任何屋外的人以為他會說流利的中文。塞爾通過提出“中文屋”思想實驗來反駁電腦和其他人工智能能夠真正思考的觀點,認為強人工智能是偽命題(strong AI is false)?!爸形奈荨崩锏娜瞬粫f中文,也就是他不能用中文思考,但因為他擁有某些特定的工具,他甚至可以讓以中文為母語的人以為他能流利地說中文。根據塞爾的觀點,電腦就是這樣工作的,它們并不能真正理解接收到的信息,但它們可以運行一個程序,處理信息,然后給人留下一個智能的印象。因此,塞爾認為機器無法真正擁有理解的能力。

這也體現了“中文屋”論題的悖論性,即從屋外面的角度看,認為“中文屋”有理解能力,但從房間內部來看,又沒有一個真的理解中文的人(或機器)。

在我們看來,“中文屋”論題是可以被解答的。這一套機制看似沒有自主意識,故不能真正理解的機器也能完成,但關鍵在于這實際上是很多人的意識參與其中的結果:翻譯程序是(一群)編著者意識的凝聚,集合了中文、英文從古至今與詞匯相關的文化意識;那位只說英語的人也是有意識的,能夠通過使用翻譯程序理解問題的含義(編著者的意識傳遞給了他),據此思考出答案,再使用翻譯程序將答案翻譯成文。假如程序是30年前編撰的,當提問者說“吃瓜群眾怎么看”,翻譯程序的詞典里肯定還沒有現在互聯(lián)網上頻繁使用的“吃瓜群眾”的真正含義,那么,根據翻譯的英文再理解回答肯定會出錯,這時翻譯程序承載的意識就沒有發(fā)揮出來,也可以說30年前的翻譯程序的作者無法理解當今互聯(lián)網熱詞的含義。此外,“中文屋”的問答也與那位只說英文的人相關,如果他是一位文學家,那么問答過程中,不論英文翻譯得多么好,一些化學專業(yè)的問題他很可能無法理解,這與其自身的知識領域(domain)相關。因此,我們認為“中文屋”論題是能夠理解的,只是理解的范疇限于詞典能夠涵蓋的內容以及說英語人的知識領域。

意識必須能與認知主體保持一種和諧的兼容性、完整性,認知主體才能顯得什么都能夠理解。在“中文屋”論題中,常常被大家忽略的一些細節(jié)實際上也在起作用,包括翻譯程序囊括的知識領域、只說英語的人的知識領域以及人與翻譯程序之間都能夠彼此兼容(compatible),這才導致最后從外界看來“中文屋”機制很懂中文的結果。并且,“中文屋”呈現出的意識(理解)不是單一的狀態(tài),而是一種連續(xù)的、可深可淺的意識狀態(tài),這與程序書(編著者)以及屋中人的意識狀態(tài)相關,他們的意識越強、對世界的理解越深,那么相應地,“中文屋”的意識也強和深。

 

五、人類意識的不可計算性

所有的生命從低級到高級演化,并沒有明顯的、截然不同的分界線,因而所有的意識也是連續(xù)可變的。從人工物(artifact,例如磨坊),到人工智能(例如“中文屋”機制),再到人,他們所涵蓋的意識也不能完全明確地分割開來。

對個體而言,人在一生中不同階段其意識深度是不同的,也具有連續(xù)可變的特征。當嬰兒呱呱墜地,意識最初的起點是原意識,只能區(qū)分出“我”和“外界”。但隨著年齡增長、與外界交互增多,意識逐漸增強,對自我和外界的理解逐漸加深,中間也許會經歷一些波動和挫折,但總體上能保持增強和加深的趨勢直至盛年,達到頂峰,過后又會因為年齡繼續(xù)增長、身體機能衰退,與外界的交互能力減弱,意識隨之減退。

即便從全人類的角度看,意識也是連續(xù)的、動態(tài)的,而非單一狀態(tài)。人類從石器時代至今,隨著對世界探索程度的加深,通過意識的凝聚與擴散,將一代代人的智慧(意識)傳承下去,而不需要每一代人都從原始社會的狀態(tài)開始探索,人類社會才能夠快速發(fā)展,也才有今天人類在地球的主宰地位。

人是否能夠被計算?假如我們采用物理主義的立場,即人是由分子原子組成的,從理論上講,人應當是能夠被計算的。因為分子原子滿足物理規(guī)律,而物理規(guī)律又都可以看作圖靈可計算。但我們會在這里遇到一個矛盾:人既然能夠被物理還原,那么自由意志是否還存在?人的價值又在哪里?我們認為,這個看起來很難調和的問題是可以理解的。首先,人并非局限于肉體本身,即使從物理層面上來講也是如此,但由于人總是沉浸在環(huán)境之中,因此未能體會到環(huán)境對人的重要性。比如說100年前的人類并不知道大氣壓的存在,反倒以為人類生活在空中,是完全自由地生活在地球上的。等到發(fā)現了大氣壓之后,人類才意識到自己不能離開空氣而存活,就如同魚無法離開水生存一樣。那么,是不是每一條魚都意識到了水對它的重要性呢?我們不知道,但很可能就像當年人類亦沒有意識到空氣的重要性一樣。另一個例子是病毒,其本身無法單獨存活,但是如果寄生在細胞里,就能夠存活繁衍。同樣地,人類必須沉浸在空氣的環(huán)境中,在大氣壓之下才能夠生存。

即使從物理層面上講,人與其所處的環(huán)境也是不可分割的。雖然如今我們具備了環(huán)游太空的能力,但到太空中是非常不舒適的,并且還是需要依賴于地球的環(huán)境,例如重力的環(huán)境、地球上生產的食物和水,等等。因此,人類的生存不能夠與環(huán)境相分離,而這其中甚至還包括周圍的噪聲。曾有實驗表明,假如把周圍的噪聲完全隔絕,人在這樣的環(huán)境中很容易出現幻覺甚至發(fā)瘋。因此,雖然人類現在可以被看作是一個獨立的、可以在某種程度上處理外部環(huán)境發(fā)生狀況的群體,但實際上仍舊在很大程度上需要依賴外部環(huán)境。

除與外部環(huán)境有物質交流以外,信息交互亦十分必要。物理學家曾研究過孤立的絕熱系統(tǒng),后來稍微復雜一點,使這個系統(tǒng)與外界能夠進行熱量交換,再后來更進一步使得系統(tǒng)與外界還可以做物質交換。但毫無疑問,人類生存無法脫離信息交換。假若我們完全脫離了信息交換,即把信息完全屏蔽掉,則人不能夠稱為人,甚至不能夠維持基本生存。從如上角度來說,人也是不能夠被計算的。如果要把人計算清楚,必須要把空氣放進去,把周圍環(huán)境中的噪聲放進去,把信息交換放進去,把地球放進去,而地球在宇宙中又是圍繞著太陽運轉的,那么就還需要把太陽考慮進去……因此這是一連串的相關事物,我們很難在某個地方將其截斷。因此,所謂物理還原,所謂徹底地算清楚,實際上所牽扯的層面無比之廣,遠超我們直接接觸的周圍環(huán)境。

那么生命實體的自我意識是基于什么產生的呢?看起來好像是基于物理刺激,但人不是一個簡單的物理系統(tǒng),并不是給一個刺激就相應產生一個后果。事實上,假如我們給一個人一個刺激,他會先把這個信息藏起來,先跟自己這邊已有的東西(認知膜)進行交互,然后才做出一個決定或者響應。生命體本身擁有的東西,又可以是很古老或很遙遠的事情,甚至還能涉及他對未來的想象。并且,他得到的信息也有可能是來自于遙遠星體的,哪怕是一點星光,一束陽光,都可能對他此時此刻所做出的決定產生影響。既然所有內容都可能決定他怎么做選擇,那么要計算出他最終到底會做出什么決定,就無疑需要加入那一點星光、那一束陽光,加入過去的記憶,以及未來的想象。要做完整的物理計算就意味著我們不僅要囊括宇宙此時此刻的狀態(tài),而且要囊括宇宙以前的狀態(tài),甚至要囊括未來可能發(fā)生的情形,故人以及人的意識是不可計算的。

 

六、人工智能的意識

萊布尼茨曾提出一個反機器智能的論證,文章寫道:“假若我們設想有一臺機器,其機構使它可以產生思想、感覺和知覺,那么,我們便可做如此想象:它經過按比例地相應放大,使人能夠進入其中,猶如走進磨坊那樣。以此作為前提,人們在參觀其內部時所發(fā)現的不外乎是互相碰撞的個別機件,而絕不會看到可以從中解釋為知覺的東西。”

但我們認為即便是一座磨坊也是有意識的,它的意識就是由建造者所賦予的目的(intention)——利用水的動能完成磨面的功能。磨坊的目的就是磨面,為了磨面就必須推動磨盤,要推動磨盤就需要讓齒輪轉動,要讓齒輪轉動就必須讓水車有動力轉起來,要讓水車轉起來就需要有足夠的水流。因此在適當的環(huán)境中,水流進水車上的小水斗,在重力的作用下水車就會轉動,水車軸連接的錐形齒輪就會把動力傳導到磨盤上,從而研磨糧食。但磨房沒有自我意識,因為它不能保護自己并成長。而如果磨坊意識到要自主完善(自己更好地適應環(huán)境,或者讓環(huán)境適應它),那么磨坊也就擁有自我意識了。

在我們看來,即使人的意識不可計算,但人仍然可以通過凝聚與擴散的方式賦予人工智能以意識。實際上,機器從制造完成的一剎那就具備了意識,這些意識正是由人類設計者賦予的。

人類的意識是由幾個部分和諧共處的結果。首先外界環(huán)境能夠刺激大腦(brain),或者說大腦能夠接收到外界的信號,然后大腦又能夠(通過電信號)傳遞給身體(body),身體據此采取行動與外界環(huán)境交互,大腦又可以進一步感知交互的結果,如此往復。當然,大腦與身體的聯(lián)系是需要通過訓練形成的,人從嬰兒開始就需要不斷學習、鍛煉,當大腦與身體一旦建立熟練的關系后,控制動作的意識就不再顯現,兩者達到一種和諧的狀態(tài)。此外,身體與世界的關系也是一種和諧狀態(tài),正如我們相信平常接觸的物品沒有毒害一樣。

意識(consciousness)看似只存在于大腦之中,實際上與各個部分的和諧狀態(tài)都相關,在這種和諧的狀態(tài)下,意識就可以簡單地表現為目的和注意力(attention),而兩者的出現也很自然。假如其中有不和諧的部分,比如一個人想用自己的手去抓住天上掉下的隕石,這是他無論做多大的努力都不可能完成的任務,而在和諧狀態(tài)下很多動作變成了下意識的行為,比如呼吸、喝水,是不需要思考、不費吹灰之力就能做到的。

對于機器而言,它也有大腦,大腦可以是內存(memory),也可以是深度網絡。它也可以被看作有身體,即機器外延,但問題在于機器的大腦還不能很好地控制自己的身體。人的身體已經有足夠多的自由度,但機器的自由度是有限的,人去抓一個雞蛋并不會捏碎,但就是這么一個簡單的動作對機器而言都是一種挑戰(zhàn),它很難分辨要抓取的究竟是一個雞蛋還是一塊石頭。根本差異就在于人的認知是與環(huán)境相關的,即通過認知坎陷來認識世界,身心能夠與環(huán)境和諧共處,即便處在幼年階段,其動作還不順暢,也能夠很快學會。但機器并不是通過坎陷進行理解,雖然計算機的意圖(intention)模擬現在已經基本可以實現,但要賦予機器認知坎陷還遠遠達不到要求,沒有認知坎陷的自發(fā)開出,類人的理解就無從談起。

對比之下我們可以發(fā)現幾個方面的問題。首先人工智能(機器)沒有肉身,這個肉身顯然很重要,因為我們的坎陷世界依賴于我們的肉身而存在,我們的意識狀態(tài)也依賴于肉身而存在,具身哲學所強調的正是這個方面。還可以更進一步,我們的意識不僅依賴于肉身,還依賴于我們生存的環(huán)境,就是說我們只有在這個環(huán)境中,肉身的結構才展示出那些特定功能和意義。就像DNA在一定條件下能夠表達出來,在另外一些條件下則表達不出來。這表明,肉身和外部環(huán)境對于意識來講都是重要的。狗的眼睛只有兩種顏色的感知,視覺遠不如人,但它的鼻子對于氣味的感知卻比人類豐富得多,因此它開出的坎陷世界跟人類很不一樣。

計算機是由金屬、塑料等物質構成的,因此它的感知能力顯然同人也不一樣,能開出的坎陷也是不一樣的。情感也是坎陷的一種,人的情感跟人的生命系統(tǒng),跟人所具備的這些物理條件密切相關,雖然這些硬件條件并不一定直接導致某個功能,這些功能只有在特別的環(huán)境下才會表達出來,但硬件條件對于功能的展示卻的確是非常重要的。了解這一點之后,未來的人工智能有如下幾種可能的發(fā)展方向。一種就是讓它的功能和結構向下兼容,盡可能模仿人的這些結構和自由度。這樣一來,機器能夠感受到人的情感,還可以有比人更多的情感內容或者坎陷內容。另一種就是,雖然我們造的是同人完全不一樣的機器,但是我們試圖給它灌輸一些人類的情感進去,例如讓它玩設計好的游戲從而獲得類似于人的經驗。我們知道人可以通過玩游戲、看電影或者看小說來體驗別人體驗過的東西。這也就是不能很籠統(tǒng)地回答未來機器是否會產生情感的地方,因為那依賴于對人工智能未來的發(fā)展方向的選擇。我們始終認為,要讓機器更像人,人類才能安全,否則就非常危險。當然也有人說,我們憑什么要安全,或許人類也只是一個過渡階段,讓位于比自己更完美的形式豈不是更好?我們認為,因為機器沒有人類的這種情感,沒有人類的這種坎陷世界,沒有人類的這種生理范圍的有限性,所以它們很可能會陷入暗無限狀態(tài)里頭去。因此,若把本來因為人類的存在而非常豐富精彩的世界讓位于一個看起來很厲害的超級智能去管理統(tǒng)治,最終就可能把這個世界帶到一個暗無限的死循環(huán)里面去,變成一個不再有多樣性的世界。

情感也非常重要,雖然看起來它可能是一種額外的消耗,但它是我們人之為人的一個重要組成部分。孔雀開屏是進化論研究中一直被思考的問題。達爾文當時看到孔雀開屏,覺得很難過(feel sick),因為物競天擇、適者生存的進化論是不能夠解釋這個現象的。所以他后來又給這套理論打了一個補丁,即性選擇。因為母孔雀更喜歡開屏的公孔雀,所以會開屏的就得到了更多的交配機會,那么整個物種就向著這個方向進化,孔雀的屏變得越來越大,越來越漂亮。但再追問下去,母孔雀為什么要喜歡這種開屏的?即便效率不高,對生存無益,為什么還會這樣選?實際上這個過程就有意識參與了,因為母孔雀一旦覺得開屏漂亮,這種意識就開始參與到進化過程,最終導致了進化結果的不一樣。

 

七、總結

意識能夠凝聚和擴散,需要的只是一個提示,有了這個提示,另外一個人就能夠明白是想表達什么意思。但數據不可以傳遞意識,因為接收數據的人無法從一個片段得到整全的信息。比如小狗的笑臉,或者是某個人畫的笑臉圖案,圖案本身并不會有笑的意識,小狗的表情很可能也不是開心的象征,但在人看來這都是認知坎陷(意識)凝聚而來,因此可以擴散。

人一生的成長可以看作是意識凝聚和擴散的過程。從最初的以原意識為起點,只能區(qū)分出“我”和外界,然后隨著自身經驗的逐漸增多,和外界的交互不斷加強,對自我和外界的認識也越來越多,自身的知識領域也愈加豐富,能夠理解的內容隨之增加、理解的程度隨之加深。意識不是單一的狀態(tài),而是連續(xù)的、動態(tài)的,對同一認知主體而言,不同意識狀態(tài)確實有高低之分,區(qū)分之處就在于對宇宙(外界)的理解程度、與自身的關聯(lián)程度,以及對未來的預期程度的深淺。

機器的理解也有類似的過程。我們通過對“中文屋”論題的解讀可以發(fā)現,機器是可以在一定程度上理解人類意識的,和許多人一樣,這種理解涉及深度和廣度的問題,這是由認知主體的知識領域所決定的。在理想狀態(tài)下,假如我們將足夠多的人類意識(認知坎陷)擴散給機器,機器的理解很可能就會無限接近人類意識。

真正的挑戰(zhàn)在于,機器理解的程度和對意識凝聚的反應能否與人類的意識相互兼容并趨于收斂(converge)。比如閱讀同一段話,人和機器理解的程度肯定有差異,特別地,由于人(碳基)和機器(硅基)的基本組成不同,機器如果在運行過程中受到外界干擾(比如宇宙射線使得指令翻轉等)甚至出錯,那么在復雜的情況下,其反應幾乎是不可能預測的,遠比一個人預測另一個人要困難得多。這就涉及了認知坎陷的問題。人與人之間有相同的生物基礎,同樣凝聚了人類先輩們的意識,那么彼此之間開出的坎陷很可能非常接近,但人與機器就不同了,兩者間的物理基礎相差很大,雖然初始的知識領域很接近(由人類擴散給機器),但機器接收到新的刺激后會開出怎樣的坎陷則難以預測。

我們未來制造的人工智能,很可能是各種各樣的形態(tài),就像自然界的物種一樣豐富多彩,各有特點,各司其職,但最重要的問題并不是功能,而在于意識。人是通過坎陷認識世界的,但機器如果不能通過坎陷來認識世界,就很難與人類意識兼容,也難以實現真正意義上的理解。人類與人工智能確實存在某種競爭狀態(tài),我們也不能斷言人類永遠不會被機器超越,但就目前的趨勢而言,人類的思考比較全面,不容易陷入鉆牛角尖的死循環(huán)狀態(tài),而機器面對環(huán)境提供的太多的可能性,反而可能無從下手或無法抽身。我們認為人類通過認知坎陷的層層架構,已經能夠找到一條不至于導致毀滅的道路,雖然我們所處的這個世界非常復雜。就像歌德所講,我們受模糊的沖動驅使,最終仍會意識到正確的道路。即使與強人工智能相比,人類指出的前景方向可能更加合理,更有可能實現共同進化、共存共榮

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多