|
◆ ◆ ◆ ◆ 上海社會科學界聯(lián)合會主辦主管 以學術為底色 以思想為旗幟 ◆ ◆ ◆ ◆ 智能化社會的十大哲學挑戰(zhàn) 成素梅 | 上海社會科學院哲學研究所研究員、《哲學分析》雜志常務副主編 本文原載《探索與爭鳴》2017年第10期 文中圖片未經(jīng)注明均來自網(wǎng)絡 自AlphaGo贏得圍棋比賽以來,人工智能成為全世界關注之焦點。無論是主動擁抱,還是被動接受,智能化趨勢已經(jīng)勢不可擋。 2017年4月英國工程與物理科學研究理事會(EPSRC)發(fā)布了《類人計算戰(zhàn)略路線圖》,明確了類人計算的概念、研究動機、研究需求、研究目標與范圍等。2017年7月我國國務院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,提出了大力助推人工智能發(fā)展的指導思想與戰(zhàn)略目標等。這些頂層設計的戰(zhàn)略性推動,再加上資本力量的聚集、科技公司的布局、各類媒體的紛紛宣傳,以及有識之士的全方位評論,加快了智能化社會到來的步伐,甚至有人把2017年稱之為“智能年”。 人工智能正在改變世界,而關鍵是人類應該如何塑造人工智能。我們在“熱”推進的同時,必須進行“冷”思考,應該充分認識到各界人士在滿懷信心地全力創(chuàng)造機會,搶抓新一輪智能科技發(fā)展機遇之時,還需要未雨綢繆地深入探討智能化社會可能面臨的嚴峻挑戰(zhàn)。 事實上,人工智能對政治、經(jīng)濟、社會、法律、文化甚至軍事等方面都帶來了多重影響,而我們現(xiàn)在還沒有足夠的知識儲備和恰當?shù)母拍羁蚣軄砝斫狻獙Α⒁龑н@些影響,這才是智能化社會真正的危險之處。本文立足于哲學視域,來探討智能化社會有可能帶來的十大挑戰(zhàn)。 挑戰(zhàn)之一:人工智能有弱版本、強版本和超版本三種形式,目前大力發(fā)展的弱人工智能,使人類生活的世界處于快速變化之中,這在概念建構上使人類措手不及。如何重構概念框架,豐富現(xiàn)有的概念工具箱,是人類面臨的概念挑戰(zhàn)。 概念是人類認識世界和理解世界的界面之一。概念工具箱的匱乏,不只是一個問題,更是一種風險,因為這會使我們恐懼和拒絕不能被賦予意義和自認為沒有安全感的東西。 豐富現(xiàn)有的概念工具箱或者進行概念重構,有助于我們積極地表達對人工智能未來的展望。因為人工智能科學家在人類智能的機制尚不明確的前提下,試圖制造出智能機器,首先需要界定“智能”是什么。這是事關人工智能的框架問題,即在什么樣的概念框架中,理解智能和實現(xiàn)智能。 丹尼特認為,我們不能把框架問題簡單地歸屬于一種技術障礙或理論難題,而應該看成是一個新的深層次的認識論問題。這也是為什么對智能的不同認知,形成了智能實現(xiàn)的不同范式的原因所在。 在人工智能60年的發(fā)展史上,最初占有統(tǒng)治地位的是符號主義范式。代表人紐厄爾和西蒙把人類的認知看成是信息加工過程,把物理符號系統(tǒng)看成是體現(xiàn)出智能的充分必要條件。這種概念框架可追溯到弗雷格和羅素的邏輯原子主義思想,而邏輯原子主義又繼承了傳統(tǒng)西方哲學中重分析的理性主義傳統(tǒng),以牛頓力學為核心的近代自然科學研究印證了這種哲學的有效性。第一代人工智能科學家正是在近代自然科學研究范式的熏陶下成長起來的,他們不僅潛移默化地延續(xù)了傳統(tǒng)西方哲學的思維方式,而且繼承了以牛頓力學為核心的近代自然科學方法論觀念。 在這個概念框架中,不僅還原主義、理性主義、物理主義、決定論的因果性等觀念占據(jù)主導地位,而且我們完全可以把世界形式化的界限,看成是發(fā)展人工智能的界限。 這種理想化的概念范式在處理人的日常感知問題時,遇到了發(fā)展性難題。與此同時,人工智能科學家受神經(jīng)科學的啟示,試圖通過神經(jīng)網(wǎng)絡的建模來模擬人類的智能的進路從邊緣走向核心。 21世紀以來,隨著大數(shù)據(jù)、云計算、圖像識別以及自然語言處理等技術的發(fā)展,以深度學習為基礎的聯(lián)結主義范式得到快速發(fā)展。這種范式在觀念上把計算機看成是類人腦,在方法上不再求助于形式化的知識推理,不再通過求解問題來體現(xiàn)智能,而是求助于統(tǒng)計學,通過模擬神經(jīng)網(wǎng)絡的聯(lián)結機制,賦予計算機能夠基于大樣本數(shù)據(jù)進行自主學習的能力,來體現(xiàn)智能。這就把人工智能的研究,從抽象的知識表征轉向實踐中的技能提升,從原子主義的主客二分的理性分析方式,轉向能動者與其所在的世界彼此互動的感知學習方式。 能動者的技能提升是在學習過程中進行的。技能不能被等同于操作規(guī)則或理論體系,而是能動者在其世界中或特定的域境(context)中知道如何去做的技術能力。這種范式恰好與來自胡塞爾、海德格爾、梅洛-龐蒂和德雷福斯的現(xiàn)象學相吻合。這也是為什么威諾格拉德于20世紀80年代曾在斯坦福大學的計算機科學課程中講授海德格爾哲學、麻省理工學院的第二代人工智能科學家也不像第一代人那樣排斥德雷福斯的哲學主張的原因所在。 人工智能發(fā)展的這種范式轉換,不僅揭示了人類體驗世界、與世界互動,以及在理解世界并賦予其意義上,使世界語義化的新方式,而且正在全方位地改變著過去習以為常的一切架構。 一方面,基于統(tǒng)計學和隨機性的算法建模,賦予智能機器在不斷實踐中能夠自主提高技能的能力,使得機器學習的不確定性和不可解釋性成為智能機器的基底背景,而不再是令人擔憂的認識論難題; 另一方面,機器智能水平的高低,取決于其學習樣本的體量或規(guī)模,這強化了體知型認知(embodied cognition)的重要性。智能機器在學習過程中表現(xiàn)出的不確定性,以及人工智能所帶來的世界的瞬息萬變,要求我們重構現(xiàn)有的規(guī)則與概念。因此,全方位地豐富和重構哲學社會科學的概念框架,是我們迎接智能化社會的一個具體的建設目標,而不是一個抽象的理論問題。 挑戰(zhàn)之二:人工智能是由大數(shù)據(jù)來驅動的,如何理解數(shù)據(jù)之間的相關性所體現(xiàn)出的預測或決策作用,是人類面臨的思維方式的挑戰(zhàn)。 人類智能最大的特征之一就是在變化萬千的世界中,能夠隨機應變地應對局勢。這種應對技能是在反復實踐的過程中練就的。在實踐活動中,人類是“寓居于世(being in the world)”的體知型主體。人與世界的互動不是在尋找原因,而是在應對挑戰(zhàn),而這種挑戰(zhàn)是由整個域境誘發(fā)的。 人類的這種應對技能是建立在整個模式或風格之基礎上的,是對經(jīng)驗的協(xié)調(diào)。人與世界的關系是一種誘發(fā)-應對關系。同樣,人工智能的世界是由人的數(shù)字化行為構成的數(shù)據(jù)世界。 一方面,人類行為的多樣性,使得數(shù)據(jù)世界變化萬千,莫衷一是;另一方面,數(shù)據(jù)量的劇增帶來了質的飛躍,不僅夯實了機器深度學習的基石,而且使受過長期訓練的機器,也能表現(xiàn)出類似于人類智能的勝任能力,成為“寓居于數(shù)據(jù)世界”的體知型的能動者。 這樣,智能機器與數(shù)據(jù)世界的互動同樣也不是在尋找原因,而是在應對挑戰(zhàn),這就使人類進入了利用大數(shù)據(jù)進行預測或決策的新時代。 大數(shù)據(jù)具有體量大、類型多、結構雜、變化快等基本特征。在這種龐雜的數(shù)據(jù)庫中,我們必須放棄把數(shù)據(jù)看作是標志實物特征的方法,運用統(tǒng)計學的概念來處理信息,或者說,憑借算法來進行數(shù)據(jù)挖掘。這樣做不是教機器人如何像人一樣思考,而是讓機器人學會如何在海量數(shù)據(jù)中挖掘出有價值的隱藏信息,形成決策資源,預測相關事件發(fā)生的可能性。 然而,當數(shù)據(jù)成為我們認識世界的界面時,我們已經(jīng)無意識地把獲取信息的方式,交給了搜索引擎。在搜索算法的引導下,我們的思維方式也就相應地從重視尋找數(shù)據(jù)背景的原因,轉向了如何運用數(shù)據(jù)本身。這就顛覆了傳統(tǒng)的因果性思維方式,接納了相關性思維方式。 因果性思維方式追求的是,如果A,那么B;而相關性思維方式追求的是,如果A,那么很有可能是B。這時,A并不是造成B的原因,而只是推出B的相關因素。就起源而言,因果性思維方式是與牛頓力學相聯(lián)系的一種決定論的確定性思維方式,而相關性思維方式則是與量子力學相聯(lián)系的一種統(tǒng)計決定論的不確定性思維方式。 相關性思維與因果性思維,屬于兩個不同層次的思維方式,不存在替代關系。前者是面對復雜系統(tǒng)的一種橫向思維,后者則是面對簡單系統(tǒng)的一種縱向思維。比如,在城市管理中,智能手機的位置定位功能有助于掌握人口密度與人員流動信息,共享單車的使用軌跡有助于優(yōu)化城市道路建設等。這些在過去都是無法想象的。 另一方面,隨著數(shù)據(jù)實時功能的不斷增強和推薦引擎技術的不斷發(fā)展,人與數(shù)據(jù)環(huán)境之間的適應關系也發(fā)生了倒轉:不是人來適應數(shù)字環(huán)境,而是數(shù)字環(huán)境來適應人。這種新的適應關系也是由相關關系引領的。 挑戰(zhàn)之三:在一個全景式的智能化社會里,如何重新界定隱私和保護隱私,如何進行全球網(wǎng)絡治理,是人類面臨的新的倫理、法律和社會挑戰(zhàn)。 人的數(shù)據(jù)化生存,不是創(chuàng)生了一個與現(xiàn)實世界相平行的虛擬世界,而是削弱了虛擬與真實之間的劃分界限,創(chuàng)生了一個超記憶(hyper-memorisability)、超復制(hyper-reproducibility)和超擴散(hyper-diffusibility)的世界。 在工業(yè)社會,個人隱私是非常重要的,蓄意打聽他人的私人信息被認為是不禮貌的,甚至是不道德的,家庭是典型的私人空間,公共場所是典型的公共空間。私人空間通常被認為是私密的、自由的或隨意的、自主的領域,而公共空間被看成是公開的、不自由的或受約束的、能問責的領域。 然而,當人類生存的物質世界成為智能化的世界時,常態(tài)化的在線生活使人具有了另外一種身份:數(shù)字身份或電子身份。 一方面,無處不在的網(wǎng)絡,即使是私人空間或私人活動,也成為對公共空間或公開活動的一種重要延伸。過去屬于私人的信息或國家機密,現(xiàn)在會在不被知情的情況下,被復制和傳播,甚至被盜用;另一方面,編碼邏輯的活動越來越標準化和碎片化,自動算法系統(tǒng)作為新的認知層面,建構了個人的電子檔案,能夠實時地解讀和編輯個人行為、篩查個人的心情、追蹤個人的喜好,甚至能夠抓取個人對信息的感知趨向,進行有針對性的信息推送。 而這種推送服務,不僅會加固社會分層,而且具有利用價值,比如,保險公司有可能在掌握了個人病史的情況下,提高保費;大學招生部門有可能把個人網(wǎng)絡檔案作為決定是否錄用學生的參考依據(jù),等等。與傳統(tǒng)的社會化和社會控制機制相反,在智能化時代,人的社會化成為無形的和不可解釋的。這就增加了社會現(xiàn)象的不透明性和人的透明性。 對于個人而言,網(wǎng)絡數(shù)據(jù)和信息的不可刪除性,個人注意力的貨幣化,人的行為隨時被置于網(wǎng)絡監(jiān)視之中,以及無法保證技術的匿名性,都會導致人的隱私權的喪失,還會強化信息的不對稱和權力的不對稱,因而對傳統(tǒng)的隱私觀提出了巨大的挑戰(zhàn)。 傳統(tǒng)的隱私觀包括兩個方面:一是個人對希望呈現(xiàn)的信息有控制權,二是個人對屬于或關于自己的信息有刪除權。當人的數(shù)字化生存使得人們失去了對自己信息的控制權的同時,也就失去了對自己信息的刪除權。在歐盟關于數(shù)據(jù)保護條例的討論中,從互聯(lián)網(wǎng)中消除信息的決定權,是一個最有爭議的話題,其中,技術性的問題比我們想象的更加復雜。 網(wǎng)絡數(shù)據(jù)的被轉移、被復制以及被控制,還有網(wǎng)絡智能機器人的被使用,不論是在個人層面,還是在國家層面,都打開了有關隱私和匿名議題的潘多拉魔盒。因此,隨著物聯(lián)網(wǎng)的發(fā)展,在全球互聯(lián)的世界中,如果我們希望通過法律條文和人類智慧,來應對隱私問題,就需要跟上技術發(fā)展的步伐,需要各級部門為掌握了大量個人數(shù)據(jù)并重新規(guī)劃人類社會發(fā)展的各類科技公司建立負責任的行動綱領。 挑戰(zhàn)之四:隨著人的網(wǎng)絡痕跡不斷留存,應該如何對待很有可能出現(xiàn)的數(shù)字人,是人類面臨的對現(xiàn)有生命觀的挑戰(zhàn)。 物聯(lián)網(wǎng)創(chuàng)造了把人、物和世界或自然界聯(lián)系起來的網(wǎng)格,智能化技術的發(fā)展又進一步使得數(shù)據(jù)、信息和知識,還有思想和行為痕跡,成為永存的。這已經(jīng)為數(shù)字人的出現(xiàn)創(chuàng)造了條件。 數(shù)字人不僅能永生,而且更重要的是,它能夠模仿出之前只有生命才具有的許多特性。這就對傳統(tǒng)的生命觀提出了挑戰(zhàn),并帶來了許多需要重新思考的問題。在亞里士多德看來,心靈(靈魂)不能存在于身體之外,并且,與身體一起死亡,而笛卡爾則維持了心靈和身體的二分。今天,人工智能科學家能夠把人類的心靈上傳到一臺機器(或網(wǎng)絡)中,這將意味著,人的心靈可以與人的身體分離開來,被附著在一個網(wǎng)絡化的具有自主學習能力的虛擬身體之上。 如果未來有一天,數(shù)字人能夠借助于自然語言處理技術和深度學習技術,來模仿真人的發(fā)音,通過計算機視覺、圖像識別等技術,來模仿真人的行為。那么,是否允許未來會出現(xiàn)專門定制數(shù)字人的公司呢?應該制定什么樣的道德法律來規(guī)范數(shù)字生命呢? 進一步設想,如果未來有一天技術允許一個人的心靈在他的身體死亡后,在一個不同的主人(比如,限于一塊硅電路或一個分布式網(wǎng)絡)的體內(nèi)繼續(xù)運行,將會發(fā)生怎么樣的情況呢?這樣的實體依然滿足用來描述人還活著的標準嗎?兩者將會擁有相同的心靈嗎?而且,就所有的實踐考慮而言,它會將永遠有能力學習、反應、發(fā)育和適應嗎?這將會違背活的有機體是由細胞組成的這一必要條件。但是,如果我們選擇堅持這個必要條件,我們將如何拓展我們的生命觀呢?這還會涉及法律、醫(yī)療、倫理、經(jīng)濟、政治乃至軍事等方面的問題。 挑戰(zhàn)之五:增強現(xiàn)實技術、生物工程技術以及量子計算的發(fā)展,應該如何對待有可能出現(xiàn)的生化電子人,是人類面臨的關于身體觀的挑戰(zhàn)。 我們通常認為,如果人的身體的某個功能器官失能之后,有可能用人造器官或器件來替換或補救,比如,心臟起搏器、人造關節(jié)、隱性眼睛、助聽器,等等,這些器具只被看成是恢復人體失能器官的功能,不會對人體構成威脅。 然而,在智能化的社會里,當芯片技術、生物工程技術和量子算法等整合起來時,將會出現(xiàn)名目繁多的增強型技術。這些技術的人造物,比如生物芯片,不只是具有醫(yī)療的作用,更重要的是具有強化人體功能的作用,那么,我們應該如何規(guī)范這些器件的使用范圍呢?不論是為了醫(yī)療的效果,還是為了增強的效果,當人體的主要功能性器官有可能被全部替換時,這個人還是原來的那個人嗎? 這就遭遇了古老的特修斯之船悖論。意思是說,一艘在海上航行幾百年的船,只要一塊船板腐爛了,就會被替換掉,以此類推,直到所有的船板都被替換掉之后,那么,這艘船還是原來的那艘船嗎?哲學家霍布斯后來延伸說,如果用特修斯之船上替換下來的船板,重新建造一艘船,那么,這兩艘船中那個船才是真正的特修斯之船呢? 這個悖論揭示了如何理解事物的同一性問題。它同樣適用于智能化社會中如何理解人體的同一性問題。我們一直認為,人的身體是指有生以來的器官、骨骼、神經(jīng)、血液等功能器官構成的血肉之軀,雖然這些器官會不斷老化,人每天都在進行新陳代謝,而具有時間連續(xù)性的身體變化,不會影響我們對身體同一性的認同。 當技術發(fā)展到人的主要器官可以被替換時,就可能出現(xiàn)生化電子人,那么,生化電子人仍然是人嗎?我們?nèi)绾蝿澏ㄈ祟惡头侨祟愔g的界線? 更令人擔憂的是,隨著醫(yī)療技術的發(fā)展,也許有一天內(nèi)置于我們體內(nèi)的納米機器人能修復任何需要修復的器官或組織,而不會影響人的生命或身份。但是,如果這些機器人是受外部控制的,就必然會帶來許多問題,比如,如何看待自由意志;從動物倫理的視域來看,當人類有可能在生物上成為永生的時,對環(huán)境和可持續(xù)性來說將是毀滅性的;人類是否有權比其他生物活得更長久,人類是否應該建立規(guī)則和條件來終止生命或同意安樂死,以及如何決定誰應該活著和死去。 挑戰(zhàn)之六:人的數(shù)字化生存,有可能使得理性—自主的、與身體無關的自我意識,被第三空間中的社會—關系的、與身體相關的自我意識取而代之,這是人類面臨的重構自我概念的挑戰(zhàn)。 在智能化的社會中,人的在線生活使得在線交流成為人類交往的一種習慣方式,人們把這種交流的網(wǎng)絡空間稱之為“第三空間”。這是由共享的群體意識所塑造的一個空間,現(xiàn)在流行的微信朋友圈就是典型一例。 這種空間是位于嚴格意義上的個人隱私和大規(guī)模公開化之間的一個共享的交流空間。在這個空間里,近代西方思想中傳統(tǒng)的個人主義的理性—自主的自我意識,被第三空間中集體主義的社會—關系的自我意識取而代之。個人主義的理性—自主的自我概念是與身體無關的、原子式的個體自我,這種自我強調(diào)實體性,也能被作為科學研究的對象,由他者進行分析和預測,成為一個他治的概念。 與此不同,阿倫特編撰了“誕生性”這個概念,使自由與多元性結盟,使多元性不再被看成是對自由的約束,這樣就把強調(diào)“自由”的自我看成是立足于多元性的存在者,而不是獨立自主的存在者。 獨立自主是一種理想。把自由理解為是獨立自主,要以犧牲現(xiàn)實為代價。因為不是一個人,而是人類棲居在地球上,沒有人能夠做到完全獨立自主,人的“自由”也不是在真空中產(chǎn)生的,而是在受約束的可供性的域境中產(chǎn)生的。所以,個體自我的自由,并不是絕對的,而是相對于他者而言的。 第三空間中的自我概念強調(diào)的正是這種與他者的“關系性”或“社會性”。人類自由的這種語境依賴性,把自我定義為是通過多重關系來構成的。在多重關系的交織中,人們往往從堅固的個人隱私觀念,轉向了各類新媒體上的信息共享:既包括私下公開個人信息,也包括共享受版權保護的學術資料,還有小道消息,甚至不加證實的各類謠言等。因此,人的網(wǎng)絡化生活一方面使人類從信息匱乏的時代,轉變?yōu)樾畔⑦^剩的時代,另一方面又把人類帶到一個信息混雜、難辨真?zhèn)蔚臅r代。 在這種情況下,人的身份的完整性,是由兩把鑰匙開啟的,一把鑰匙由自己拿著;另一把鑰匙由他人拿著。這就是為什么在公共空間向他人顯現(xiàn),是人類境況的核心特征,為什么身份與互動如此密切地聯(lián)系在一起,為什么注意力成為人類體驗多元性的關鍵能力的原因所在。 關系自我之所以強調(diào)在與他者的交流互動中來彰顯自己,是因為人不僅是目標的追求者,也是意義的塑造者,人與人之間的彼此互動也會產(chǎn)生新的意義和新的可供性。因此,如何重塑社會—關系自我,成為我們面臨的關于自我概念的挑戰(zhàn)。 挑戰(zhàn)之七:人工智能向各行各業(yè)的全面滲透,使人類有可能擺脫就業(yè)壓力,獲得時間上的自由。然而,如何利用充足的自由支配時間,卻成為人類面臨的比為生存而斗爭還要嚴峻和尖銳的挑戰(zhàn)。 隨著計算機的運算能力與儲存能力的不斷提升,特別是有朝一日隨著量子計算機的出現(xiàn),人工智能不只是局限于模擬人的行為,而且還拓展到能夠解決復雜問題。人工智能的這些應用前景,越來越受人重視。 為此,許多人認為,人工智能的普遍應用有可能將會使許多工人、醫(yī)生、律師、司機、記者、翻譯員、服務員甚至教師等人群失業(yè),但也有人認為,人工智能并不會造成整個職業(yè)的消失,只是替代工作內(nèi)容,使人機協(xié)同成為未來的主流工作模式。就像工業(yè)革命時代,大規(guī)模地開辦工廠,使得大量農(nóng)民不得不離開農(nóng)田,進入城市,成為工人,并誕生了銀行、商場、各類中介等機構一樣,智能革命時代也會不斷地創(chuàng)造出新的就業(yè)崗位,使大量職業(yè)人員改變工作范式,并誕生前所未有的新職業(yè)。 因此,我們面臨的問題,不應該是因恐懼失業(yè)而阻止人工智能的發(fā)展,而是反過來,應該前瞻性地為人工智能的發(fā)展可能帶來的各種改變,做好思想準備和政策準備。事實上,問題的關鍵并不是人工智能的發(fā)展會導致大量人員失業(yè)那么簡單,而涉及更加根本的問題:如何改變?nèi)祟愰L期以來形成的就業(yè)觀和社會財富的分配觀? 如果我們追溯歷史,就不難發(fā)現(xiàn),我們的地球發(fā)展已經(jīng)經(jīng)歷了兩次大的轉折:第一次大轉折是從非生命物質中演化出生命,這是生命體的基因突變和自然選擇的結果;地球發(fā)展的第二次大轉折是從類人猿演化出人類,而人類的出現(xiàn)使自然選擇的進化方式首次發(fā)生了逆轉,人類不再是改變基因來適應生存環(huán)境,而是通過改變環(huán)境來適應自己的基因。這就開啟了人類憑借智慧迎接人造自然的航程。 從農(nóng)業(yè)文明到工業(yè)文明,再到當前的信息文明,人類始終在這條航線上勇往直前。在這種生存哲學的引導下,為生存而斗爭和擺脫自然界的束縛,直到今天依然是人類最迫切解決的問題,甚至也是整個生物界面臨的問題。 一方面,科學技術的發(fā)展、工具的制造、制度的設計,都是為有助于實現(xiàn)這一目標而展開的;另一方面,人類的進化,包括欲望和本性的變化,其目的都是希望付出最少的勞動獲得最大的報酬,特別是我們熟悉的教育體制也是為培育出擁有一技之長的勞動者而設計的。在全球范圍內(nèi),這些設計目標的類同性,竟然與民族、膚色、語言等無關。這無疑揭示了人類有史以來的生存本性。 然而,隨著人工智能的發(fā)展,當程序化和標準化的工業(yè)生產(chǎn)、基于大樣本基數(shù)的疾病診斷、法律案件咨詢,甚至作曲、繪畫等工作都由機器人所替代時,當人類的科學技術有可能發(fā)展到編輯基因時,地球的發(fā)展將會面臨著第三次大轉折,那就是迎來人機協(xié)同,乃至改變?nèi)梭w基因結構的時代。 到那時,有望從繁重的體力勞動與腦力勞動的束縛中完全解放出來的人類,應該如何重新調(diào)整乃至放棄世世代代傳承下來的以勞取酬的習慣和本能的問題,以及人類如何面對改造自己基因的問題,就成為至關重要的問題。 也就是說,當人類的休閑時間顯著地增加,而我們所設計的制度與持有的觀念,還沒有為如何利用休閑時間做好充分的思想準備時,當科學技術的發(fā)展使我們能夠設計自己的身體時,我們將會因此而面臨著一種“精神崩潰”嗎?對諸如此類問題的思考,使我們不得不面對更加現(xiàn)實的永久性問題:我們在擺脫了就業(yè)壓力而完全獲得自由時,如何利用充足的自由支配時間,如何塑造人類文明,成為人類文明演進到智能化社會時,必然要面臨的比為生存而斗爭還要嚴峻而尖銳的挑戰(zhàn)。 挑戰(zhàn)之八:當人類社會從由傳統(tǒng)上求力的技術所驅動的工業(yè)社會,轉向由求智的技術所驅動的智能化社會時,如何在智能技術的研發(fā)中把人類的核心價值置入到設計過程之中,使人工智能有助于塑造人的意義,是人類面臨的關于技術觀的挑戰(zhàn)。 長期以來,工具作為人造物通常被看成是中性的。技術是把雙刃劍的說法,是針對技術的應用者而言的。在這種情況下,衡量技術善惡的天平將會偏向哪個方向,取決于應用者的倫理道德,與制造者無關。即使新石器時代磨制的石器,也能用來傷人,更不說原子能技術的出現(xiàn)。 許多技術哲學家對這種工具主義的技術觀提出了批評,認為技術并不是中性的,而是承載著內(nèi)在價值的。這種內(nèi)在價值既是由技術設計者鑲嵌在技術物之中的,也指技術使用者沉迷于技術物之后,會受其價值的影響。比如,小孩子沉迷于網(wǎng)絡游戲而不能自拔的一個主要原因,是智能游戲能夠根據(jù)玩者的歷史紀錄,給予興趣的引導和刺激。 從總體上講,人類創(chuàng)造技術人造物,在主觀上,雖然不是為了改變?nèi)?,而是為了滿足人的需求,但在客觀上,卻反過來又在無形中重塑了人,也就是說,人在使用技術的同時,也被技術所改變。 特別是,當我們生活在“智能環(huán)境”中時,一方面,物質環(huán)境本身具有了社會能力,成為一種環(huán)境力量,能夠起到規(guī)范人的行為和重塑公共空間的作用,甚至還能起到社會治理的作用。 比如,城市交通要道上架設攝像頭,能夠約束司機的駕駛行為,使他們不得不把遵守交通規(guī)則內(nèi)化為一種良好的駕駛習慣;在智能手機中下載高德地圖,不僅能實時掌握道路擁堵情況,方便出行,而且有助于緩解主干道上的交通壓力;許多重要場合在安裝上人臉識別系統(tǒng)之后,不相關的人員將無法入內(nèi),從而變成了一項加強安保與監(jiān)管的自動措施;用人單位在記錄職工考勤時,如果用人臉識別系統(tǒng)取代傳統(tǒng)的電子打卡方式,就能夠避免替人打卡現(xiàn)象,如此等等。 但另一方面,智能手機攜帶的地理定位功能,讓人的行蹤成為透明的,網(wǎng)絡活動留下的各種數(shù)據(jù),讓人的興趣、愛好、生活習慣以及社會交往等成為透明的,人臉不僅是名字的標簽,還承載了許多可以機讀的網(wǎng)絡信息,這些信息既能造福于人類(比如,用于病理診斷),也會損壞人的利益(比如隱私泄露)。 因此,在智能化的社會中,技術善惡的天平將會偏向哪個方向,不再只是取決于使用者,而且更取決于設計者。在當前流行的人工智能范式中,算法模型是基于過去數(shù)據(jù)的學習訓練,來決定未來的結果。算法模型的設計者選擇的數(shù)據(jù)不同,訓練出來的智能系統(tǒng)的偏好就會不同。這樣,人工智能事實上并不是在預測未來,而是在設計未來。 算法在表面上只是一個數(shù)學模型,但事實上,這樣的數(shù)學模型并不客觀,甚至還可能暗藏歧視。在這種情況下,我們討論問題的重點,就不是探討是否允許發(fā)展人工智能或準許人工智能技術進入社會的問題,因為排斥人工智能已經(jīng)沒有多大意義,當代人已經(jīng)生活在人造物的世界中,無法離開技術而生存,而是應該討論如何在智能技術的研發(fā)中把人類的核心價值置入到設計過程,如何發(fā)展與人工智能的良性互動,如何樹立一種嵌入倫理責任的技術觀等問題。 挑戰(zhàn)之九:在知識生產(chǎn)領域內(nèi),軟件機器人的普遍使用,將會為科學家提供科學認知的新視域,如何對待有軟件機器人參與的分布式認知,是人類面臨的對傳統(tǒng)科學認識論的挑戰(zhàn)。 在智能化的社會里,互聯(lián)網(wǎng)就像今天的水、電、氣一樣,不僅成為日常生活中的基礎設施,而且成為社會數(shù)字化程度的標志和智能化發(fā)展的前提。 有所不同的是,網(wǎng)絡化、數(shù)字化與智能化的結合,既是平臺,也是資源。它們不僅創(chuàng)設了無限的發(fā)展空間,具備了很多可供開發(fā)的功能,而且為我們提供了觀察世界的界面。特別是,對于那些希望從互聯(lián)網(wǎng)的知識庫里“挖掘”有用信息的人來說,搜索引擎或軟件機器人成為唾手可得的天賜法器,既便捷,又快速。 問題在于,當搜索結果引導了人類的認知趨向并成為人類認知的一個組成部分時,人類的認知就取決于整個過程中的協(xié)同互動:既不是完全由人類認知者決定的,也不是完全由非人類的軟件機器人或搜索引擎決定的,而是由相互糾纏的社會—技術等因素共同決定的。弗洛里迪稱之為“分布式認知”。 一種分布式認知的形式體現(xiàn)在維基百科中。我們知道,維基百科實施的開放式匿名編輯模式,在極大地降低了知識傳播和編撰的門檻時,首先必須面對詞條內(nèi)容的可靠性問題。維基人采取了兩條途徑來確保其可靠性:一是通過集體的動態(tài)修改來加以保證;二是讓軟件機器人自動地承擔起監(jiān)管和維護的任務,隨時監(jiān)測和自動阻斷編輯的不正確操作。 比如,在加州理工學院學習的維吉爾·格里菲斯開發(fā)的Wikiscanner軟件,就可以用來查看編輯的IP地址,然后,根據(jù)具有IP地址定位功能的數(shù)據(jù)庫(IP地理定位技術)來核實這個地址,揭示匿名編輯,曝光出于私心而修改詞條的編輯,從而自動維護了維基百科詞條內(nèi)容的質量。軟件機器人的警覺性遠遠高于人的警覺性,因而極大地提高了維護效率,成為維護知識可靠性的一位能動者(agent)。 另一種分布式認知的形式體現(xiàn)在新型的科學研究中。2017年7月7日出版的《科學》雜志集中刊載的一組文章簡要介紹了軟件機器人直接參與人類認知的許多事例,這些事例表明,軟件機器人不僅具有監(jiān)管、搜索、推送等作用,而且開始參與到科學研究的過程之中,正在改變科學家的科研方式。比如,賓夕法尼亞大學積極心理學中心的心理學家可以運用算法,根據(jù)社交媒體上的話語,來分析大眾的情緒、收入和意識形態(tài),從而有可能在語言分析及其與心理學聯(lián)系方面帶來一場革命。 因此,當科學研究的結果也依賴于機器人的工作時,我們的認識論就必須由只關注科學家之間的互動,進一步拓展到關注軟件機器人提供的認知部分,形成“分布式認識論”。這是對傳統(tǒng)認識論的挑戰(zhàn)。 挑戰(zhàn)之十:當整個人類成為彼此相連的信息有機體,并且與人造物共享一個數(shù)字化的信息空間時,認識的責任就必須由人類的能動者和非人類的能動者來共同承擔。如何理解這種分布式的認識責任,是人類面臨的對傳統(tǒng)責任觀的挑戰(zhàn)。 智能化的網(wǎng)絡世界永遠是一個包羅萬象的地方,既讓人著迷,又令人憂慮。著迷之處在于,它有可能讓我們極大程度地從體力與腦力勞動中解放出來,有時間從事成就人的工作;憂慮之處在于,它同時也會帶來了無盡的問題:身份盜用、垃圾郵件、網(wǎng)絡欺詐、病毒攻擊、網(wǎng)絡恐怖主義、網(wǎng)絡低俗文化等。這說明,我們的認識系統(tǒng)已經(jīng)是一個與社會—技術高度糾纏的系統(tǒng)。 在這個系統(tǒng)中,不僅我們的認識是分布式的,而且認識的責任也是分布式的。正如朱迪思·西蒙所言,認識的責任是一個把認識論、倫理學和本體論聯(lián)系起來的話題,認識的能動作用和相關的問責,既不屬于人類,也不屬于人造物,而是屬于人類在系統(tǒng)中的內(nèi)在—行動。 這種觀念類似于我們對量子測量結果的理解。在量子測量中,被測量對象的屬性、測量設置和測量結果是相互糾纏和共同決定的。屬性既不是事先存在的,也不是無中生有的,而是在測量過程中,由測量設置和對象共同形成的,是實體—關系—屬性一體化的結果。 傳統(tǒng)的認識論觀念,對這種量子測量整體性的理解,曾帶來許多認識論的困惑,導致了兩位物理學大家玻爾和愛因斯坦的世紀之爭。同樣,在智能環(huán)境中,智能化程度的提高,造成了我們對承擔責任的恐懼。比如,在個人數(shù)據(jù)處理、無人駕駛、算法交易等事件中,如果發(fā)生問題,應該由誰來負責呢? 這種恐懼把認識關系變成了一種權力關系。也就是說,在認識過程中,不同的認識能動者(不論是人類的,還是非人類的),具有不同的權力。當非人類的算法或軟件機器人過濾和引導了我們的認識視域時,就提出了我們?nèi)绾纬蔀樨撠熑蔚恼J識者的問題。 比如,我們已經(jīng)習慣于通過百度來查找所需要的一切信息,習慣于通過參考他人的評分或評論,來決定預定哪家賓館、在哪個餐飲吃飯、購買哪件衣服,等等。問題在于,我們?yōu)槭裁匆嘈胚@些評論或評分?如果我們被欺騙,比如,曾經(jīng)發(fā)生的莆田系問題。我們應該如何問責呢?對這個問題的思考,涉及到關于搜索引擎這樣的智能人造物的倫理和道德責任的問題。 弗洛里迪等人認為,如果人造物顯示出互動性、自主性和適應性,那么,它就有資格成為一位道德能動者;如果人造物有資格成為一位道德能動者,那么,它就能被問責。在這種情況下,如果我們依然沿著傳統(tǒng)的問責思路,把攜帶有智能的人造物,看成是不能承擔責任的,那么,對于這類非人類的能動者而言,道德的能動作用就與道德責任分離開來。 如果我們認同這種觀點,那么,談論智能人造物的責任就沒有意義。事實上,這種觀點混淆了孤立的技術人造物和社會—技術—認識系統(tǒng)中能體現(xiàn)出智能的人造物之間存在的本質差異。 比如,汽車發(fā)生碰撞事故,交警通常會判定要么由司機來負責,要么由廠商來負責。在這種思路中,汽車是被當作孤立的技術人造物來看待的??墒?,如果是一輛無人駕駛的汽車發(fā)生了碰撞事故,那么,我們就需要追究這輛車的責任,因為無人駕駛車應該被當作是屬于社會—技術—認識高度糾纏的人造物來看待的。 然而,如何解決這樣一個把倫理學、本體論和認識論高度糾纏在一起的問題,在現(xiàn)有的規(guī)章制度中和交通法規(guī)中依然無章可循。因此,從如何重塑社會—技術—認識系統(tǒng)中的問責機制來看,如何確立分布式責任觀是我們面臨的對傳統(tǒng)問責機制的挑戰(zhàn)。 綜上所述,智能化社會是由人工智能驅動的社會,是信息文明的高級階段。這個社會必然會全方位地打破我們習以為常的生活方式、生產(chǎn)方式、思維方式、概念框架乃至當前在現(xiàn)代性基礎上形成的方方面面。在我們勢不可擋地邁向智能化社會的道路上,面臨著有必要重構一切的情況下,哲學社會科學的出場,很可能比技術與資本的出場更迫切、更重要。因為只有這樣,才能有助于前瞻性地重構一系列戰(zhàn)略方針,做到防微杜漸,才能有助于擴大人工智能帶來的恩惠,規(guī)避人工智能可能帶來的危害,降低發(fā)展人工智能付出的代價。也許,擺脫恐懼,迎接挑戰(zhàn),是人類文明無法回避的宿命。 《探索與爭鳴》人間體 聯(lián)絡員小探 xiaotanxiaosuo 轉載 | 合作 | 咨詢 | 建議 長按掃碼加好友 END 人文社科學者的平臺 《探索與爭鳴》 唯一官方微信平臺 聯(lián)系電話:021-53060418 |
|
|
來自: 昵稱27494174 > 《探索與爭嗚》