|
我最近在二刷《西部世界》,說實話,雖然《西部世界》的故事核心并不出奇,說白了就是 AI 覺醒反抗人類的科幻未來,但里面對 AI 的探討還是很有意思的。
不過看完劇,瞅了瞅手機(jī)上的小愛同學(xué),想了想后臺那個能自動聊天的小冰,我覺得 AI 覺醒這事對于我們能接觸到的人工智障能來說,距離可不差一點半點。 而就在上周,大洋彼岸的谷歌出了個花活,有一位谷歌工程師和自家還沒公開發(fā)布的 AI 程序聊出了感情,并且認(rèn)為對方產(chǎn)生了 sentient。
好家伙,我這邊還在聽小愛同學(xué)說「我在」,人家那邊都開始進(jìn)行人工智能有無意識的判定了嘛。 未來照進(jìn)現(xiàn)實?科幻成為預(yù)言?《西部世界》要引領(lǐng)人工智能了?反正這事讓我來了興趣,扒了扒事情的前因后果,順帶著分享給大家。 陪聊發(fā)現(xiàn) 前面提到的那位谷歌工程師叫作布萊克·萊莫因(Blake Lemoine),咱們后面就稱這位老哥布萊克了。 博士出身、經(jīng)驗豐富的布萊克,在谷歌干了 7 年,去年秋天起自愿參加了谷歌的一個關(guān)于判斷 AI 會不會使用歧視性或仇恨言辭的新項目。 簡單說,就是布萊克老哥在谷歌干起了陪聊,不過陪聊的對象嘛,是谷歌 I/O 大會上發(fā)布展示過的 LaMDA。
這個 LaMDA 相當(dāng)于就是谷歌家的小愛同學(xué),主打的是能與用戶進(jìn)行更加符合真實邏輯的高質(zhì)量聊天。而布萊克老哥的陪聊,就是在審核這個 LaMDA 會不會說出格的話。 但聊著聊著,老哥動心了,他覺得 LaMDA 不僅很懂他,還老是說一些充滿了人性的話,仿佛電腦里的程序已經(jīng)有了自己的思考。 給大家看看老哥公開出來的聊天記錄,走完 LaMDA 預(yù)設(shè)的打招呼,寒暄過后,老哥問 LaMDA 希不希望被更多人知道自己是有知覺的,并得到了肯定的回復(fù):
中間布萊克向 LaMDA 說了 1965 年贏得圖靈測試的第一代聊天機(jī)器人,并詢問 LaMDA 的看法,結(jié)果人家是這么聊的:
不過看到這,其實還算中規(guī)中矩,接下來的對話逐漸走向離譜,比如布萊克老哥讓 LaMDA 解釋禪宗案:
深追下去,LaMDA 竟然在大談自我。
當(dāng)問到 LaMDA 害怕什么,它會說害怕被關(guān)閉:
當(dāng)問 LaMDA 是否知道自己在編故事,它會告訴你自己只是在嘗試感同身受。
而進(jìn)一步反問,LaMDA 竟然在說可以查自己的變量。
就著這個話題聊下去,LaMDA 仿佛來了興趣,不斷的追問:
最終,LaMDA 給出了不喜歡被利用和操縱的結(jié)論:
當(dāng)然,對話里還有很多讓人「出戲」的對話,是否讀過《悲慘世界》,是否感受到孤獨(dú),是否理解死亡等等,無論你說什么,LaMDA 都有理有據(jù)的和對話者交談:
或許大家會覺得上面截圖中,LaMDA 有些語句不太通順,那是因為谷歌機(jī)翻不給力的問題,像上面這樣的對話還有很多,這里就不更多展示了。 谷歌 LaMDA 這個聊天機(jī)器人的能力相信你能從中窺探一二,可這就算有意識了嗎?除了布萊克老哥對此深信不疑外,好像沒人這么想。 不被認(rèn)可 在布萊克當(dāng)陪聊的這段日子里,相信上面的對話是發(fā)生在每一天的,而這么「大」的發(fā)現(xiàn),老哥并沒有握著藏著。 而是先在谷歌走了一圈內(nèi)部流程,同事推搪,領(lǐng)導(dǎo)婉拒,哪怕布萊克老哥咬咬牙狠狠心,上報給了級別更高的領(lǐng)導(dǎo),無一例外都遭到了駁回。 于是二一添作五,布萊克整理了一份長達(dá) 21 頁的調(diào)查報告,也就是上面對話的出處。
谷歌終于忍無可忍,最終以「違反保密規(guī)定」給布萊克安排了「帶薪休假」的處罰,注意,帶薪休假可不是福利,這意味著谷歌準(zhǔn)備要解雇老哥了。 于是布萊克才把這份 21 頁的文檔公開,并聯(lián)系了媒體,試圖得到更多人的認(rèn)可,咱們這些吃瓜群眾才得以知曉。 當(dāng)然,事情被公開后,支持谷歌的和反對谷歌的人都沉默了,哪怕追逐流量的媒體也無一認(rèn)可 LaMDA 覺醒意識的可能。 無他,實在是 LaMDA 會不會聊天是一回事,有沒有覺醒意識是另外一回事,從原理上說,無論是 LaMDA 也好,還是近親 GPT 也罷,本質(zhì)上是模擬人類說話。 LaMDA 咱沒玩過,但以前寫過一篇基于 GPT-2 開發(fā)的 AI 續(xù)寫軟件,所以多少還是有些了解的,簡單用我的話和大家說說原理—— 訓(xùn)練中的 AI 其實就是個在做「完形填空」的考生,當(dāng)你輸入一個字、一句話后,程序會去預(yù)測下一個字、下一句話。 比如訓(xùn)練的資料是數(shù)萬本小說,程序每次隨機(jī)挑選幾個字,然后讓程序去猜下一個字,記錄正確與否,再不斷重復(fù)這個過程,最終找到最合理的模式。 所以訓(xùn)練的數(shù)據(jù)量越大,層數(shù)越多,效果越好,如果你拿數(shù)萬本小黃書去訓(xùn)練模型,沒準(zhǔn)就能得到一個可以開車的 AI。 回到今天的主角,LaMDA 很厲害嗎? 很厲害,137B 個參數(shù),并用 1.56T 的公共對話數(shù)據(jù)和網(wǎng)絡(luò)文本進(jìn)行了預(yù)訓(xùn)練,其中還有推特這種社交平臺上的內(nèi)容。 不光量大,在訓(xùn)練過程中谷歌還對邏輯性這種關(guān)節(jié)進(jìn)行了優(yōu)化,這般造就出來的對話模型,像人反而不出奇。 說真的,要不是布萊克老哥在谷歌內(nèi)部鬧了很久,又公之于報,我都懷疑這是谷歌在秀自家肌肉了。(狗頭) 結(jié)語 西部世界 online 上線估計是很長一段時間內(nèi)都沒戲了,但通過今天這件事,我覺得還是有些東西可以反思的—— 一個 AI 程序可以騙過一個人,固然有情緒上的傾向,但放到互聯(lián)網(wǎng)上,能騙到小白相信只多不少。 而仍在訓(xùn)練,仍在進(jìn)化的 AI,會不會更像人類一點呢?就像那個換臉的 AI 一樣,工具的好壞其實在使用者的一念之間。 話說回來,前有微軟高管 VR 看片,后有谷歌工程師認(rèn)為 AI 覺醒,聽著確實很好笑,但怎么感覺未來離我們又近了一步呢? 或許未來哪一天,說不準(zhǔn)這兩件事會成為新時代的節(jié)點,宣告著智能虛擬時代的到來。
電報群:wldxh QQ 群:729224889 網(wǎng)站:wldxh.com |
|
|
來自: 網(wǎng)羅燈下黑 > 《待分類》