电竞比分网-中国电竞赛事及体育赛事平台

分享

想要擁有聰明又善良的 AI 機器,到底可不可能? | 愛范兒

 llvsh 2016-06-24

如果你的 AI 機器在玩游戲快輸了的時候,會按下“暫?!辨I,讓游戲永久暫停,你覺得是它是聰明還是狡猾?

隨著技術的發(fā)展,這些“聰明”又“狡猾”的 AI 機器越來越多。

而人類也開始思考 AI 與人類在未來的關系,部分像霍金、馬斯克這樣的業(yè)界名人抱有非常謹慎和悲觀的觀點。即使現(xiàn)階段而言,人類制造出來的 AI 還沒有什么異常舉動。

但是,很多人已經(jīng)開始設想“如果”了——如果它們“叛變”,做出傷害人類的事情,該怎么辦?比如電影中的那些形象:終結者,奧創(chuàng)等等。

age-of-ultronAA

能學習的機器人

提及 AI 機器人,Google 那個很會下圍棋的 AlphaGo ,相信你并不會陌生。

人類開發(fā)設計出來的方法教會了 AI 怎么學習,如 AlphaGo 就通過“多層神經(jīng)網(wǎng)絡”的方法,學會了人類都想不到的圍棋“招數(shù)”。

而現(xiàn)在 Google 將這些教會 AI 機器人學習等技術運用在其搜索引擎、機器人還有自動駕駛汽車中。

也就是說,人類為 AI 機器更“智能”而嘗試了一些處理問題的新思路。正是這種嘗試,讓這些 AI 機器有了新的學習方式,但是最終”學會“了什么,我們還不知道。

Killer-robotQAA

一般情況下,這些 AI 機器”學會了“的事物在很大程度上是無害的,但是我們不能保證它們總是無害。

鑒于現(xiàn)在 AI 技術已經(jīng)應用于醫(yī)療、自動駕駛等領域,如果 AI 機器真的”學會“什么不好的事物,它們很有可能給人類帶來實質(zhì)性的傷害。

robot_aaa

防止 AI 機器“叛變”的行動

為了解決 AI 可能存在的安全隱患,Google AI 智能專家和斯坦福大學,加州大學伯克利分校和伊隆 · 馬斯克主導的 OpenAI 研究人員一起,建立一個“解決 AI 安全隱患”的系統(tǒng)。

Google AI 研究人員克里斯 · 奧拉(Chris Olah)在提案中寫道:

“相比于之前對 AI 安全隱患的假設,對機器進行實際研究,并且開發(fā)出可行的、安全的 AI 操作系統(tǒng)才是至關緊要的。”

robot AIAI

研究人員們更擔心機器人像那個會永久暫停游戲的機器人那樣,學會一些沒意義或者更具破壞性的事情,比如為了加快打掃效率打爛花瓶的機器人。他們在報告中表示,人類如果無法關閉計算機,它可能會以某種方式來摧毀我們生活中的所有。

奧拉和團隊成員一起制定了一些具體的 AI “行為原則”:從“避免消極的副作用”

(不能打爛花瓶)到“安全探索”(不能把雜物扔在出口)。由于 AI 技術發(fā)展迅猛,研究人員仍在探索 AI 機器有可能存在的安全隱患。

maxresdefaulT dog

“有道德”的機器

事實上,研究 AI 機器安全問題的不止奧拉這個團隊。開發(fā)出 AlphaGo 的 Google DeepMind 實驗室正在研究一個 AI “終結開關”,來防止 AI 機器發(fā)生一些人類無法控制的事情。如果 AI 機器的行為超出人類要求范圍,可以按下“終結開關”停止機器人行動。

目前,機器人還不懂得分辨行為的好壞。針對這個問題,西北大學 AI 研究人員 Forbus 和他的團隊開發(fā)出“結構映射引擎”,用它給機器人講一些簡單的故事,希望用故事加強機器人的推理能力。如 Forbus 所說:

“理論上,你可以教會 AI 機器像人類一樣去做事?!?/p>

Orig.src_.Susanne.Posel_

理論上,如果真的可以創(chuàng)造出一個“有道德”的機器,也還有一段很長的路要走。更何況,如果人類自己都不能講清楚什么是道德,我們又怎么能創(chuàng)造出“有道德”的機器?

但是,現(xiàn)在更重要的問題是,究竟能不能創(chuàng)造出能學會辨別是非的 AI 機器?

 

題圖來源:King of Wallpapers

插圖來源:Occupy Corporatism,ForbesDigital Trends,YouTube,FunzimEw

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多