|
看完 Ilya Sutskever 的訪談,最大的啟發(fā)竟無關(guān)模型和技術(shù),而是 認(rèn)知 。 這個(gè)曾經(jīng)在黑板上寫下方程式、推動(dòng)了 AlexNet 和 GPT 誕生的 Open AI 首席科學(xué)家——可能是這波生成式 AI 浪潮最重要的奠基人——在 23 年 11 月的 OpenAI 宮斗后幾乎銷聲匿跡。 這也是為什么這次訪談上線之前就被很多人預(yù)定為 年度 AI 播客。 ![]() 打開今日頭條查看圖片詳情 視頻里的Ilya,語速緩慢、邏輯清晰、神情凝重、目光深邃,看得越久,我的感受越強(qiáng)烈: 與其說 Ilya 是科學(xué)家,不如說是哲學(xué)家、美學(xué)家,未來學(xué)家,甚至——在談?wù)?AI 未來時(shí)——特別像一位 先知 : 他說,只有最終做出來超級(jí)智能 Superintelligence,并讓人類看到完整體——而不是 OpenAI 這種漸進(jìn)式發(fā)布——我們才可能真正理解和討論它。 分享 3 個(gè)我覺得認(rèn)知層面啟發(fā)比較大的點(diǎn): 一、語言影響思維:我們被自己創(chuàng)造的詞匯困住了 Ilya 提了一個(gè)極具語言學(xué)色彩的觀點(diǎn): “語言影響思維” (Language Affects Thought)。 他認(rèn)為,當(dāng)前 AI 行業(yè)被自己發(fā)明的一套話語體系鎖死了想象力:
Ilya 的反思是:真正的智能可能不是通過海量數(shù)據(jù)“預(yù)訓(xùn)練”出來的成品,而應(yīng)該像一個(gè) 15 歲的天才少年。 它不需要預(yù)先知道所有答案,但它擁有極其強(qiáng)大的 “持續(xù)學(xué)習(xí)” (Continual Learning) 能力。 比去年第一個(gè)高呼“Scaling Law已死”更進(jìn)一步,Ilya 這次徹底解構(gòu)了行業(yè)對(duì) AI 的刻板印象。 他之前就說過: AI 的瓶頸不是算力,而是“理念/方法”的突破。 ——那他的理念/方法是什么?可惜,現(xiàn)在不能說。 二、持續(xù)學(xué)習(xí):AI 仍未學(xué)會(huì)人類的“舉一反三” 作為一個(gè)“哲學(xué)家”,Ilya 對(duì)“智能”的定義有著極高的美學(xué)標(biāo)準(zhǔn)。 他指出目前大模型繁榮下的虛假:模型在考試(Evals)上拿了滿分,但在現(xiàn)實(shí)中卻經(jīng)常顯得笨拙。 他打了一個(gè)比方: 現(xiàn)在的模型就像是一個(gè)刷題機(jī)器。為了贏得編程比賽,它練習(xí)了 10,000 小時(shí),背下了所有題庫。 而人類就像是那個(gè)天資卓越的學(xué)生,只練習(xí)了 100 小時(shí),卻掌握了編程的本質(zhì)。 他覺得長遠(yuǎn)來看,刷題機(jī)器注定會(huì)被淘汰。因?yàn)槿祟悡碛心撤N我們尚未破解的 “泛化之謎” (Mystery of Generalization) :雖然模型在題目上可能贏過人類,但面對(duì)未知的、全新的挑戰(zhàn)時(shí),那個(gè)擁有 “它” 因素 (The 'It' Factor) 的人類學(xué)生會(huì)走得更遠(yuǎn)。 青少年學(xué)開車只需要 10 小時(shí),且不需要誰給他設(shè)計(jì)一個(gè)“獎(jiǎng)勵(lì)函數(shù)”,他也不需要撞毀幾千輛車來從錯(cuò)誤中學(xué)習(xí)。 人類擁有驚人的 樣本效率 (Sample Efficiency) 和魯棒性 (Robustness) 。這是目前依靠海量數(shù)據(jù)堆砌的 Pre-training 和 RL(強(qiáng)化學(xué)習(xí))所極度缺乏的。 Ilya 認(rèn)為,解開這個(gè)謎題,是通往下一代 AI 的關(guān)鍵。 他斷言: Scaling 的時(shí)代已經(jīng)過去,我們重新回到了 Research(研究)的時(shí)代。 我們需要去尋找那個(gè)失落的“配方 (Recipe)”。 三、關(guān)愛生命:當(dāng)超級(jí)智能真正來臨 對(duì)于 AI 安全,Ilya 的視角不再局限于“對(duì)齊” (Alignment) 技術(shù)本身,而是上升到了 社會(huì)心理學(xué) 和 博弈論 的層面。 用戶在提問中提到:“未來的 AI 會(huì)比現(xiàn)在強(qiáng)非常多,到那個(gè)時(shí)候,人類所有的頭部模型公司就要重新認(rèn)真的思考安全問題?!? Ilya 覺得:“現(xiàn)在的 AI 之所以讓人覺得不危險(xiǎn),僅僅是因?yàn)樗€經(jīng)常犯蠢。” 他預(yù)言,當(dāng) AI 能力突破某個(gè)臨界點(diǎn),當(dāng)它真正開始展現(xiàn)出那種令人窒息的、無懈可擊的強(qiáng)大時(shí),人類的心理防線會(huì)發(fā)生劇變。
他甚至提出了一個(gè)帶有某種神性光輝的終極目標(biāo): 不要只教 AI 聽話,要教 AI 關(guān)愛有感知力的生命 (Care for sentient life) 。 因?yàn)樵谖磥?,AI 本身也是一種有感知力的生命,這樣要比讓 AI 只關(guān)愛人更可行。這聽起來已經(jīng)不像是在做研究了,更像是在制定一種跨物種的星際憲章。 最后: Taste 訪談最后的問題很精彩,什么是“研究品味”?Ilya: Beauty, Simplicity, and Biological Inspiration. 美,簡(jiǎn)潔,生物學(xué)啟發(fā)。 這就是 Ilya Sutskever。 在硅谷都在瘋狂追逐算力和顯卡的時(shí)候,他在談?wù)撁?、談?wù)摵?jiǎn)潔、談?wù)搶?duì)生物大腦原理的借鑒。 也許通往超級(jí)智能的道路,不只是一條由 GPU 鋪成的暴力美學(xué)之路,更是一條通向美、簡(jiǎn)潔的進(jìn)化之路。 |
|
|