|
來源:半導(dǎo)體制造 人工智能(AI)的爆炸性應(yīng)用正開啟半導(dǎo)體設(shè)備的新紀元,在帶來眾多新機遇的同時也提出巨大挑戰(zhàn)。在由美國應(yīng)用材料公司和SEMI在2018年7月召開的SEMICON West大會期間舉辦的AI設(shè)計論壇上, IBM研究部高級副總裁John E. Kelly博士在談到人工智能將如何顯著改變世界時表示:“這是一個計算時代,其規(guī)模將使之前的時代相形見絀,其方式將改變我們所有的業(yè)務(wù)和所有行業(yè)以及我們所有的生活。這是助力推動半導(dǎo)體產(chǎn)業(yè)向前發(fā)展的時代。機會數(shù)量巨大?!痹诂F(xiàn)有的15億至20億美元的信息技術(shù)產(chǎn)業(yè)之上,人工智能有2萬億美元的決策支持機會?!皬淖置嫔峡?,世界上每個行業(yè)都會受到這種影響和改變”。 應(yīng)用材料公司首席執(zhí)行官Gary Dickerson在上述活動上發(fā)言時表示,AI“需要在邊緣和云端創(chuàng)新,實現(xiàn)數(shù)據(jù)的產(chǎn)生(在邊緣)、存儲和處理以釋放價值。與此同時,摩爾定律正在放緩,創(chuàng)造了完美的機會。硬件再次變得迷人。在過去的18個月中,芯片初創(chuàng)公司所獲得的資金比過去18年還多。除了來自英特爾和高通等傳統(tǒng)IC公司的AI芯片外,還有超過45家初創(chuàng)公司正致力于開發(fā)新的AI芯片,風(fēng)險投資超過15億美元,其中至少有5家企業(yè)籌集了超過1億美元。谷歌、Facebook、微軟、亞馬遜、百度和阿里巴巴等科技巨頭也在開發(fā)AI芯片。擁有比其他任何人早12個月勝出的AI芯片可能是一個1000億美元的機會?!皯?yīng)用材料公司的內(nèi)部驅(qū)動力是速度和上市時間。一個月的價值是多少?一分鐘的價值是多少?” SEMI總裁兼首席執(zhí)行官Ajit Manocha稱其為半導(dǎo)體行業(yè)的“重生”。他在最近的一篇文章中指出:“人工智能正在改變一切——并將半導(dǎo)體帶回當(dāng)之無愧的聚光燈下。AI的數(shù)百澤字節(jié)(zettabytes)和數(shù)萬億美元的潛在市場依賴于新的半導(dǎo)體架構(gòu)和計算平臺。制造這些AI半導(dǎo)體引擎需要在材料、設(shè)備和設(shè)計方法領(lǐng)域的大量創(chuàng)新?!?/p> 在去年年底召開的國際電子器件會議(IEDM)期間應(yīng)用材料舉辦的展覽會上,IBM研究院副院長兼Almaden實驗室主任Jeff Welser博士表示,人工智能的爆炸式增長是由需要處理大量非結(jié)構(gòu)化數(shù)據(jù)所驅(qū)動,現(xiàn)階段我們僅在短短的兩天內(nèi)生成的數(shù)據(jù)就與2003年全年產(chǎn)生的數(shù)據(jù)總量一樣多?!霸?020年左右估計將產(chǎn)生50澤字節(jié)的數(shù)據(jù)。這是21個零?!?/p> Welser將在2019年5月召開的ConFab 2019上發(fā)表主題演講。他指出,80%的所有數(shù)據(jù)都是非結(jié)構(gòu)化的,增長速率是結(jié)構(gòu)化數(shù)據(jù)的15倍?!叭绻憧匆幌略鲩L情況,它實際上是一種完全不同類型的數(shù)據(jù)。語音數(shù)據(jù)、社交媒體數(shù)據(jù),包括大量圖像、視頻、音頻和文本,是非常非結(jié)構(gòu)化的文本。”然后是物聯(lián)網(wǎng)互連傳感器的數(shù)據(jù)。 有多種方法來處理這些數(shù)據(jù)。CPU對于結(jié)構(gòu)化的浮點數(shù)據(jù)非常有效,而GPU在AI應(yīng)用程序中運行良好,但這并不意味著人們不會將傳統(tǒng)的CPU用于AI。今年8月,英特爾表示其在2017年銷售了10億美元的人工智能處理器芯片。英特爾數(shù)據(jù)中心負責(zé)人Navin Shenoy表示,英特爾已對其CPU進行了優(yōu)化,在過去幾年中人工智能訓(xùn)練方面的表現(xiàn)改進了200倍,Xeon處理器在人工智能領(lǐng)域的銷售額在2017年達到10億美元,而公司的總收入為628億美元。英特爾人工智能產(chǎn)品部門負責(zé)人Naveen Rao表示,這筆10億美元的計算來自于客戶,這些客戶告訴英特爾購買芯片用于人工智能,以及計算有多少客戶的數(shù)據(jù)中心用于此類工作。 為AI應(yīng)用的硬件定制并不是新鮮事物。Welser說:“即使早在90年代,他們就開始使用ASICS和FPGA試圖找到更好地做到這一點的方法。”例如,谷歌在2016年推出的張量處理單元(TPU)是專為機器學(xué)習(xí)應(yīng)用而研制的定制ASIC芯片,使芯片對降低的計算精度有更高的容忍度,意味著每次操作需要更少的晶體管。 當(dāng)GPU在2008~2009年出現(xiàn)時,人們意識到除了預(yù)先設(shè)計的應(yīng)用——圖形處理外,它們真的很適合做神經(jīng)網(wǎng)絡(luò)所需的那種數(shù)學(xué)運算。 “從那時起,我們已經(jīng)看到了一大堆不同的架構(gòu),試圖繼續(xù)提高我們運行神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練和推理的能力?!?nbsp; 要實現(xiàn)AI工作,首先“訓(xùn)練”一個神經(jīng)網(wǎng)絡(luò),其中權(quán)重根據(jù)輸出而改變;然后是“推理”,其中權(quán)重是固定的。這可能意味著需要兩種不同類型的芯片?!叭绻銢]有嘗試在其上學(xué)習(xí),當(dāng)你使用已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)并運行它用于任何應(yīng)用程序時,你可能會得到一些功率低得多、速度更快、效率更高的結(jié)果。對于我們討論硬件的發(fā)展時變得非常重要?!?nbsp; 無論是CPU、GPU、ASIC還是FPGA,當(dāng)今技術(shù)的問題是所需的處理功率和現(xiàn)有可用功率之間存在巨大差距。應(yīng)用材料公司的Dickerson說:“我們在每瓦性能這一指標上還需提升1000倍?!辈粌H需要減少數(shù)據(jù)中心中AI處理器所用電量,還需要減少汽車、安全等移動應(yīng)用,在這些應(yīng)用中需要實時而非在云中做出決策,這也可能導(dǎo)致需要不同類型的AI芯片。一個有趣的例子是IBM世界領(lǐng)先的Summit超級計算機,擁有由27648臺Nvidia GPU推動的9216臺IBM處理器,占用相當(dāng)于兩個網(wǎng)球場空間,耗費一個小鎮(zhèn)的電量。
為了達到性能每瓦的新水平,在AI芯片級別的研究創(chuàng)新包括: ·低精度計算 ·模擬計算 ·電阻計算 在一項研究中,IBM人為地降低了神經(jīng)網(wǎng)絡(luò)的精度,結(jié)果令人驚訝。Welser說:“我們發(fā)現(xiàn)可以將浮點數(shù)降低到14位,并獲得了與16、32或64位完全相同的精度。浮點數(shù)位在這個點上并不重要。”這意味著神經(jīng)網(wǎng)絡(luò)的某些部分可以具有高精度,而另一些部分則具有低精度。Welser說:“你可做出許多權(quán)衡,通過放棄精確度,可以降低功率或提高性能”。 老式模擬計算具有更低的精度,但可能非常適合AI。Welser說:“模擬計算在當(dāng)時非常有效,只是當(dāng)你試圖做高精度浮點計算時,你無法以任何有意義的方式來控制錯誤或規(guī)模。但如果你真正想要的是擁有可變連接的能力,如神經(jīng)元,那么也許你可以使用模擬設(shè)備?!?/p> 電阻計算是模擬計算的一個轉(zhuǎn)折點,它具有消除內(nèi)存和計算之間瓶頸的額外優(yōu)勢。Welser說將其視為神經(jīng)元層,這些神經(jīng)元之間的連接將是模擬電阻存儲器?!巴ㄟ^改變電阻存儲器的電平,在一個神經(jīng)元和下一個神經(jīng)元之間流動的電流量將自動變化。下一個神經(jīng)元將根據(jù)流入其中的電流量決定將如何激發(fā)。IBM為該應(yīng)用試驗了相變存儲器?!帮@然,相變存儲器可以達到低電阻或高電阻(即1或0),但你無法使其變?yōu)榻橛趦烧咧g的一個值,這正是我們想要利用的地方。有希望采用模擬設(shè)備作為一部分組成單元和擺脫內(nèi)存的瓶頸,以及在實現(xiàn)高精度互連時避免所需的精度/功率要求?!?/p> 成功的電阻模擬存儲器最終將歸結(jié)為材料挑戰(zhàn)?!拔覀兿M鎯θ萘坑幸磺€級別,希望在關(guān)閉和打開時具有非常好的對稱性,這不是你通常考慮的。業(yè)界面臨的挑戰(zhàn)之一就是考慮如何更好地獲得滿足這些需求的材料,而不僅僅是開啟或關(guān)閉一位的直接存儲?!?/p> 應(yīng)用材料公司市場情報主管Sundeep Bajikar在一篇博客中寫道,“解決處理器到內(nèi)存的訪問和帶寬瓶頸將為AI帶來新的內(nèi)存架構(gòu),最終可能導(dǎo)致邏輯和內(nèi)存制造之間的融合。IBM的TrueNorth推理芯片就是這樣一種新架構(gòu)的例子,其中每個神經(jīng)元都可以訪問自己的本地存儲器,無需片外訪問存儲器。諸如ReRAM,F(xiàn)E-RAM和MRAM等新型存儲器件可以催化以存儲器為中心的計算領(lǐng)域的創(chuàng)新。將高性能邏輯和高性能存儲器的工藝技術(shù)分離的傳統(tǒng)方法可能不再適用于精度降低計算的新AI世界?!?nbsp; |
|
|
來自: BBSBIAN > 《人工智能與機器人》