新智元報(bào)道 來(lái)源:arXiv 編輯:金磊、元子、張乾 【新智元導(dǎo)讀】做數(shù)學(xué)題一直令多數(shù)人頭疼不已的事情。近期,DeepMind團(tuán)隊(duì)最新研究了利用AI來(lái)解數(shù)學(xué)題,但結(jié)果令人大跌眼鏡——水平不及高中生。數(shù)學(xué)也難倒了AI。 數(shù)學(xué)可能是大多數(shù)人在求學(xué)過(guò)程中最頭疼的一門科目。近日,DeepMind團(tuán)隊(duì)便對(duì)“AI做數(shù)學(xué)題”進(jìn)行了研究,結(jié)果大跌眼鏡:“萬(wàn)能的AI”在面對(duì)數(shù)學(xué)問(wèn)題也是不知所措! 論文地址: https:///pdf/1904.01557.pdf 人類解題能力超群的關(guān)鍵在于,人類并非主要通過(guò)經(jīng)驗(yàn)和證據(jù),而是通過(guò)推斷、學(xué)習(xí),以及利用定理、公理和符號(hào)操縱規(guī)則。 DeepMind團(tuán)隊(duì)便對(duì)神經(jīng)架構(gòu)和類似系統(tǒng)的評(píng)估(以及最終的設(shè)計(jì))提出了新的挑戰(zhàn),開發(fā)了一個(gè)數(shù)學(xué)問(wèn)題的任務(wù)處理套件,涉及以自由形式文本輸入/輸出格式的系列問(wèn)題和答案。 不過(guò),在研究過(guò)程中,DeepMind發(fā)現(xiàn),AI非常擅長(zhǎng)做的數(shù)學(xué)題都是比較偏簡(jiǎn)單的,例如:查找數(shù)字中的位值、四舍五入小數(shù)/整數(shù)等。但是在諸如素?cái)?shù)檢測(cè)、因式分解以及多項(xiàng)式操作等方面,性能結(jié)果存在顯著的差異。 AI做數(shù)學(xué)的能力不及高中生水平? 深層模型遠(yuǎn)未達(dá)到人類所表現(xiàn)出的穩(wěn)健性和靈活性,由于自身能力的限制,深度學(xué)習(xí)無(wú)法超越所經(jīng)歷的環(huán)境去生成新的東西,并且面對(duì)存在對(duì)抗性構(gòu)建的輸入時(shí)極其脆弱。 與神經(jīng)模型相比,人類智能擅長(zhǎng)的一個(gè)領(lǐng)域是關(guān)于物體和實(shí)體的離散組合推理,即“代數(shù)泛化”,這個(gè)領(lǐng)域也體現(xiàn)了神經(jīng)模型和人類智之間的差異。 人類在這個(gè)領(lǐng)域內(nèi)的概括能力是復(fù)雜的、多方面的。先來(lái)看這個(gè)數(shù)學(xué)題: 當(dāng):f(x)= 2x + 3,g(x)= 7x-4,h(x)= -5x-8時(shí) 求:g(h(f(x))) 人類解決這道數(shù)學(xué)題時(shí)候,用到的各種認(rèn)知技能有:
DeepMind在這篇論文中引入了一個(gè)由許多不同類型的數(shù)學(xué)問(wèn)題組成的數(shù)據(jù)集,對(duì)于模型來(lái)說(shuō),優(yōu)于缺乏上述人類能力,在處理跨系列的問(wèn)題類型(包括我們?cè)谙旅嬖斒龅姆夯┑臅r(shí)候難度更大,更難獲得良好的表現(xiàn)。 該領(lǐng)域?qū)τ谝话愕纳窠?jīng)結(jié)構(gòu)的分析是重要的。除了提供廣泛的問(wèn)題外,還有其他幾個(gè)優(yōu)點(diǎn):
數(shù)學(xué)本身也是一個(gè)有趣的領(lǐng)域,雖然解決該數(shù)據(jù)集中大多數(shù)中學(xué)數(shù)學(xué)問(wèn)題的模型本身不具備應(yīng)用程序,但它們可能會(huì)導(dǎo)致更強(qiáng)大的模型,這些模型可以解決有趣且實(shí)質(zhì)性的新數(shù)學(xué)問(wèn)題。 或者更一般地說(shuō),尋求驗(yàn)證以捕獲算法/系統(tǒng)推理為目標(biāo)的新架構(gòu)的實(shí)驗(yàn)經(jīng)常從這個(gè)領(lǐng)域中得出,這并非巧合。因此,在為這些模型提供大規(guī)模的訓(xùn)練和評(píng)估框架時(shí),希望為繼續(xù)研究超越數(shù)學(xué)的機(jī)器推理提供堅(jiān)實(shí)的基礎(chǔ)。 請(qǐng)看以下數(shù)學(xué)問(wèn)題集示例: 問(wèn)題:對(duì)于r,求解-42*r+27*c=-1167和130*r+4*c=372。 答案:4 問(wèn)題:計(jì)算-841880142.544+411127。 答案:-841469015.544 問(wèn)題:Letx(g)=9*g+1。Letq(C)=2*C+1。Letf(i)=3*i-39.設(shè)w(j)=q(x(j))。計(jì)算f(w(a))。 答案:54*a-30 問(wèn)題:設(shè)e(l)=l-6.2是e(9)和2的因子嗎? 答案:錯(cuò) 問(wèn)題:設(shè)u(n)=-n**3-n**2。設(shè)e(c)=-2*c**3+c。令l(j)=-118*e(j)+54*u(j)。l(a)的衍生物是什么? 答案:546*a**2-108*a-118 問(wèn)題:從qqqkkklkqkkk中選擇了三個(gè)字母而沒(méi)有替換。給出序列qql的概率 答案:1/110 研究中的主要貢獻(xiàn) 數(shù)據(jù)集和泛化測(cè)試 研究人員發(fā)布1個(gè)序列到序列的數(shù)據(jù)集,包括許多不同類型的數(shù)學(xué)問(wèn)題(見(jiàn)圖1),用于測(cè)量數(shù)學(xué)推理,同時(shí)提供生成代碼和預(yù)生成的問(wèn)題。 數(shù)據(jù)集附帶兩組測(cè)試:插值測(cè)試,一個(gè)針對(duì)訓(xùn)練集中出現(xiàn)的每種類型的問(wèn)題;外推測(cè)試,測(cè)量沿著各種難度軸的概括超出訓(xùn)練期間的概括。將外推測(cè)試作為模型是否采用允許它們進(jìn)行代數(shù)泛化的能力的額外度量。 實(shí)驗(yàn)和模型分析 本文利用一個(gè)實(shí)驗(yàn)評(píng)估來(lái)研究最先進(jìn)的神經(jīng)架構(gòu)的代數(shù)能力,實(shí)驗(yàn)表明它們?cè)谀承╊愋偷膯?wèn)題上表現(xiàn)良好,但肯定不是全部,而且只有適度的數(shù)量一般化。我們對(duì)他們?nèi)绾螌W(xué)習(xí)回答數(shù)學(xué)問(wèn)題及其失敗模式提供了一些見(jiàn)解。 由于該數(shù)據(jù)集背后的構(gòu)建過(guò)程,有大量現(xiàn)有模型可以進(jìn)行調(diào)整、專門構(gòu)建或定制,以解決提出的問(wèn)題,特別是在符號(hào)求解器或計(jì)算機(jī)代數(shù)系統(tǒng)的幫助下。 隨著問(wèn)題和答案的復(fù)雜性或語(yǔ)言多樣性的增長(zhǎng),撇開傳統(tǒng)符號(hào)方法可能的脆弱性或可擴(kuò)展性的限制,我們對(duì)評(píng)估通用模型更感興趣,而非已經(jīng)內(nèi)置數(shù)學(xué)知識(shí)的模型。 使這些模型(總是神經(jīng)架構(gòu))從翻譯到通過(guò)圖像字幕解析無(wú)處不在的原因,是這些函數(shù)逼近器缺乏偏差,因?yàn)樗鼈兊脑O(shè)計(jì)中編碼的域特定知識(shí)相對(duì)較少(或沒(méi)有)。 雖然有一些神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)的方法可以直接訪問(wèn)數(shù)學(xué)運(yùn)算(例如加法或乘法,或更復(fù)雜的數(shù)學(xué)模板,這無(wú)疑是我們?cè)诒疚闹刑岢龅娜蝿?wù)中具有競(jìng)爭(zhēng)力,我們將局限于一般的序列處理架構(gòu),這些架構(gòu)用于其他非數(shù)學(xué)任務(wù),以便為將來(lái)的比較提供最一般的基準(zhǔn)。 論文研究了兩種(廣泛的)模型,這些模型已經(jīng)證明了它們?cè)谛蛄械叫蛄袉?wèn)題上的最新技術(shù):循環(huán)神經(jīng)架構(gòu),以及最近引入的Attention/Transfomer結(jié)構(gòu)。 我們還嘗試使用可微分神經(jīng)計(jì)算機(jī),這是一種具有“外部存儲(chǔ)器”的復(fù)現(xiàn)模型(其大小與網(wǎng)絡(luò)中的參數(shù)數(shù)量無(wú)關(guān))。 理論上,這可能非常適合解決數(shù)學(xué)問(wèn)題,因?yàn)樗梢源鎯?chǔ)中間值以供以后使用。然而,卻無(wú)法從中獲得不錯(cuò)的表現(xiàn),即使對(duì)于內(nèi)存插槽的數(shù)量和大小的超參數(shù)掃描等,在訓(xùn)練一天后才能達(dá)到10%的驗(yàn)證性能,而大多數(shù)模型在不到一個(gè)小時(shí)內(nèi)就能獲得這一點(diǎn)。 圖2:注意力LSTM和Transformer體系結(jié)構(gòu)都包含一個(gè)解析問(wèn)題的編碼器和一個(gè)解碼器,它將正確的答案右移1個(gè)映射到每個(gè)位置的答案中的下一個(gè)字符(因此允許自回歸預(yù)測(cè)): (a)注意LSTM將問(wèn)題編碼為一系列(關(guān)鍵,值)位置,然后由解碼器進(jìn)行處理 (b)變壓器有幾個(gè)階段的自我注意和輸入注意 循環(huán)結(jié)構(gòu) LSTM 是一個(gè)強(qiáng)大的序列到序列模型構(gòu)建模塊,它在許多領(lǐng)域都達(dá)到了最先進(jìn)的結(jié)果,盡管它很簡(jiǎn)單,但仍然是循環(huán)神經(jīng)網(wǎng)絡(luò)的一個(gè)核心構(gòu)建模塊。本文測(cè)試了兩個(gè)標(biāo)準(zhǔn)的循環(huán)結(jié)構(gòu)。
在這兩種體系結(jié)構(gòu)中,還使用了一個(gè)簡(jiǎn)單的更改來(lái)提高性能。所描述的模型必須在解析問(wèn)題之后直接輸出答案。 近期,一種稱為關(guān)系遞歸神經(jīng)網(wǎng)絡(luò)或關(guān)系內(nèi)存核(relational memory core,RMC)的遞歸體系結(jié)構(gòu)被開發(fā)出來(lái)作為L(zhǎng)STM的替代品。這個(gè)重復(fù)單元有多個(gè)記憶槽,它們通過(guò)注意力相互作用。 TRANSFORMER Transformer模型是一個(gè)實(shí)現(xiàn)機(jī)器翻譯的最先進(jìn)結(jié)果的序列到序列模型。圖2b對(duì)其做了簡(jiǎn)要的描述。該模型由編碼器和解碼器組成,前者將問(wèn)題(表示為向量序列)轉(zhuǎn)換為另一個(gè)相同長(zhǎng)度的序列,后者將編碼的問(wèn)題和答案轉(zhuǎn)換為答案預(yù)測(cè)。 訓(xùn)練和評(píng)估方法 與序列到序列模型中常見(jiàn)的方法一樣,這些模型使用貪婪解碼器(每一步輸出多數(shù)類)自回歸地預(yù)測(cè)答案。通過(guò)Adam優(yōu)化器最小化正確字符的對(duì)數(shù)概率之和,學(xué)習(xí)率為6×10-4,β1= 0.9,β2= 0.995,ε= 10-9。 使用批量大小為1024的8個(gè)NVIDIA P100 GPU進(jìn)行500k批次分割,絕對(duì)梯度值限幅為0.1。 實(shí)驗(yàn)結(jié)果 圖3顯示了不同結(jié)構(gòu)的平均插值和外推(extrapolation)性能。 圖3 模型精度(正確答案的概率)在各個(gè)模塊之間取平均值。RMC是關(guān)系遞歸神經(jīng)網(wǎng)絡(luò)模型。 LSTMs vs RMCs 使用具有多個(gè)內(nèi)存插槽的RMC不會(huì)提高性能;也許RMC很難學(xué)會(huì)使用插槽來(lái)操縱數(shù)學(xué)實(shí)體。對(duì)于給定數(shù)量的隱含單元,RMC的數(shù)據(jù)效率更高,但訓(xùn)練速度更慢(因?yàn)樗鼈冇懈嗟膮?shù)),LSTMs具有更好的漸近性能。 Simple vs Attentional LSTM Attentional LSTM和Simple LSTM具有相似的性能。有人可能會(huì)懷疑Attentional LSTM什么也不做,但事實(shí)并非如此,因?yàn)榕c解析LSTM大小相同的Simple LSTM模型獲得的性能要差得多。我們推測(cè),注意力模型并沒(méi)有學(xué)習(xí)算法解析問(wèn)題,因此每一步改變注意力焦點(diǎn)的能力并不重要。 “思考”步驟數(shù) 對(duì)于Attentional LSTM模型,可以觀察到,將“思考”步驟的數(shù)量從0增加到16,可以提高性能。 Transformer vs 最好的非transformer模型 Transformer在幾乎所有模塊上的性能與遞歸模型相同,或者明顯優(yōu)于遞歸模型。這兩種體系結(jié)構(gòu)具有相當(dāng)數(shù)量的參數(shù)。人們可能會(huì)預(yù)先期望LSTM執(zhí)行得更好,因?yàn)樗捻樞蝮w系結(jié)構(gòu)可能更類似于人類執(zhí)行的順序推理步驟。然而,實(shí)驗(yàn)表明,這兩種網(wǎng)絡(luò)都沒(méi)有做太多的“算法推理”,并且Transformer相對(duì)于LSTM架構(gòu)具有各種優(yōu)勢(shì),例如:
對(duì)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)最簡(jiǎn)單的數(shù)學(xué)問(wèn)題 最簡(jiǎn)單的問(wèn)題類型是查找數(shù)字中的位值,以及四舍五入小數(shù)和整數(shù),所有模型在這些方面都獲得了近乎完美的分?jǐn)?shù)。涉及比較的問(wèn)題也往往相當(dāng)容易,因?yàn)檫@類任務(wù)是相當(dāng)感性的(例如比較長(zhǎng)度或單個(gè)數(shù)字)。 對(duì)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)最困難的數(shù)學(xué)問(wèn)題 也許并不奇怪,一些最難的模塊包含了更多的數(shù)字理論問(wèn)題,這些問(wèn)題對(duì)人類來(lái)說(shuō)也很難,比如檢測(cè)素?cái)?shù)和因式分解。 Transformer模型在“加或減幾個(gè)數(shù)字”模塊和“乘數(shù)或除數(shù)”模塊的性能為90%或更高。然而,在混合算術(shù)模塊上,性能下降到大約50%。我們推測(cè)這些模塊之間的區(qū)別在于前者可以在相對(duì)線性/淺/平行的方式(因此解決方法通過(guò)梯度下降相對(duì)容易發(fā)現(xiàn)),而沒(méi)有用括號(hào)評(píng)估混合算術(shù)表達(dá)式的快捷方式,其中需要計(jì)算中間值。 這證明模型沒(méi)有學(xué)習(xí)任何代數(shù)/算法操作值,而是學(xué)習(xí)相對(duì)簡(jiǎn)單的技巧來(lái)獲得許多模塊的良好答案。對(duì)于其他需要中間值計(jì)算的模塊,如多項(xiàng)式求值和一般組合,也是如此。 多項(xiàng)式操縱性能 Transformer和遞歸模型之間的一個(gè)顯著差異是多項(xiàng)式操作。Transformer在多項(xiàng)式展開、收集項(xiàng)、加法、組合、微分和提取命名系數(shù)方面做得明顯更好。從理論上說(shuō),Transformer的并行順序特性更擅長(zhǎng)于處理多項(xiàng)式,其中幾個(gè)系數(shù)必須同時(shí)保存在內(nèi)存中,以便相互作用。 |
|
|
來(lái)自: taotao_2016 > 《計(jì)算機(jī)》