电竞比分网-中国电竞赛事及体育赛事平台

分享

大模型競賽,賽點在哪?

 百年張裕88 2024-03-14 發(fā)布于湖北

圖片



AI浪潮的席卷速度,超過了以往任何一場技術(shù)革命。

OpenAI剛剛成立的時候,AGI(通用人工智能)仍是一個不切實際的理想。不少學(xué)者認(rèn)為,與其花精力去研究一個如人類般通用的人工智能,不如去琢磨琢磨永動機,后者可能更現(xiàn)實點。

當(dāng)時,連OpenAI的首席科學(xué)家伊利亞,都不敢和人聊這個話題,因為會在圈子里低人一等[1]。

僅僅過去了不到10年,AGI已經(jīng)成為了一種共識。前些天,奧特曼與黃仁勛都不約而同地表達(dá)了同一個觀點:AGI很有可能在5年內(nèi)成為現(xiàn)實。

而在眼下的2024年,AI將進一步加快重塑社會的腳步。


最后一道障礙



在中國的科技敘事中,AI并不是一個新詞。

2016年,谷歌AlphaGO戰(zhàn)勝李世石,登上了全球新聞媒體的頭條,國內(nèi)的創(chuàng)業(yè)者開始蠢蠢欲動。第二年,谷歌又跑來烏鎮(zhèn)與柯潔下了場棋。

在這短短一年時間內(nèi),國內(nèi)涌現(xiàn)了528家AI企業(yè)、371起AI投融資、9000多項AI專利[2]。

當(dāng)年的互聯(lián)網(wǎng)大會上,官方發(fā)表了一份題為“烏鎮(zhèn)指數(shù)”的報告,方方面面介紹了人工智能創(chuàng)業(yè)的盛況。然而,人工智能熱潮只持續(xù)了三四年,便偃旗息鼓。

圖片

因為在當(dāng)時,AI多為參數(shù)量較小的小模型,只能處理定制化任務(wù)。

面對某個具體任務(wù),科技公司需要先收集并標(biāo)注對應(yīng)的數(shù)據(jù),再用這些數(shù)據(jù)去訓(xùn)練,從而讓AI獲得特定的能力。

舉個例子,許多中式快餐店,都有自動識別菜品并計算金額的AI。為了打造這一系統(tǒng),科技公司需要先收集小炒肉、番茄炒蛋等菜品的圖像,并給每張圖標(biāo)注好菜名與價格,再用這些數(shù)據(jù)去訓(xùn)練AI。

盡管小模型的技術(shù)含量不低,落地方式卻和施工隊無異,這讓AI失去了光環(huán)。

而打破這一瓶頸的,正是誕生于2017年的Transformer算法。

它最大的變革,是解決了過往的RNN等算法,難以處理大規(guī)模參數(shù)的問題,從而打造出具備通用能力的AI。至此,大模型一詞開始登上歷史舞臺。

隨著底層技術(shù)取得突破,科技公司的大模型迭代,呈現(xiàn)出了一條非常陡峭的曲線。

外界對于大模型的認(rèn)知,多始于2022年底發(fā)布的ChatGPT。但在水面之下,相關(guān)研究早已如火如荼。

例如2019年,一批清華知識工程實驗室的技術(shù)人員,走出象牙塔創(chuàng)辦了智譜AI。

從第二年開始,智譜AI開始專注于研究國產(chǎn)全自研、自主可控基座大模型,是國內(nèi)第一批研究大模型算法的公司。

2021年,智譜AI的7位研究員,共同發(fā)表了論文《GLM: General Language Model Pretraining with Autoregressive Blank Infilling》,提出了一種不同于谷歌BERT、OpenAI的GPT的預(yù)訓(xùn)練架構(gòu)GLM。

在自然語言理解、無條件生成、條件生成這三個主要任務(wù)上,GLM表現(xiàn)優(yōu)異。

圖片

以GLM架構(gòu)為基礎(chǔ),智譜AI于2021年發(fā)布了第一款模型GLM-10B。此后三年間,GLM又歷經(jīng)多次技術(shù)迭代。

2024年1月,智譜AI推出了新一代基座大模型GLM-4,在基礎(chǔ)能力、指令跟隨能力、中文對齊能力等方面全面看齊GPT-4,模型能力實現(xiàn)質(zhì)的飛躍。

不僅如此,GLM-4還擁有強大的上下文能力,可以在128k文本長度內(nèi)做到百分之百精準(zhǔn)召回,并具備多模態(tài)的能力。

當(dāng)然,智譜AI只是國內(nèi)大模型研究的一個切面。

這些年,幾乎全世界的科技公司都擼起了袖子大搞創(chuàng)新,OpenAI的研究員甚至自發(fā)高強度內(nèi)卷,每天研究到凌晨到1點多。

2024年初,北京市人工智能產(chǎn)業(yè)投資基金參與智譜AI的新一輪融資,進一步加速大模型發(fā)展。

AGI改變社會,不再是將來時,而是進行時。


造鐵路更重要



縱觀歷史可以發(fā)現(xiàn),波瀾壯闊的技術(shù)革命,往往有這樣一條規(guī)律:

技術(shù)革命的最大受益者,通常不是率先做出突破的開拓者,而是那些率先將技術(shù)擴散出去的一方。

當(dāng)年的工業(yè)革命尤為明顯:

許多創(chuàng)新都始于歐洲,然而美國卻一躍成為工業(yè)強國;最重要的原因,莫過于美國率先建立起了龐大的鐵路網(wǎng)絡(luò),將工業(yè)成果落地。

在1870年到1900年的短短三十年間,美國新造了17萬英里的鐵路,將原本的鐵路系統(tǒng)延長了近3倍。

這一規(guī)律,在AGI時代同樣適用。

去年,著名計算機科學(xué)家吳恩達(dá)曾在斯坦福做過一場題演講。他同樣認(rèn)為,AI其實和電力、互聯(lián)網(wǎng)一樣,是一項通用技術(shù);更多的機會,在于大規(guī)模應(yīng)用落地[4]。

圖片

然而,當(dāng)下整個行業(yè)對于“造鐵路”的探索,其實仍處于較淺層的階段。

主流的聊天機器人產(chǎn)品,更多只是簡單給通用大模型套了個殼兒,并沒有與市場需求深度貼合。

就導(dǎo)致大模型已經(jīng)火了近一年半,但對普通人生活的影響,并沒有想象中那么翻天覆地。

因此,以智譜為代表的AI公司,開始在商業(yè)化落地上做出更多嘗試。

過去一年時間,智譜AI的GLM大模型,已經(jīng)在智能汽車、金融、咨詢等領(lǐng)域取得了一定成果。目前,智譜對于大模型落地的探索,大致可以拆分成三個方向:

一是革新傳統(tǒng)的交互方式。

在消費電子、汽車等行業(yè),對話交互并不是一個新物種,被廣泛應(yīng)用于智能音響、新能源汽車等產(chǎn)品上。

然而,傳統(tǒng)的對話交互并不好用,其回復(fù)內(nèi)容多根據(jù)給定的模板生成,較為生硬,且對于語音指令的理解率也較低。

因此,智己汽車嘗試在車機系統(tǒng)中,部署了智譜AI的GLM大模型。

新版的對話交互功能,不僅大大提升了指令識別的能力,同時還能實現(xiàn)更多趣味性對話,例如切換聊天人設(shè)等等。

二是降低知識流動的邊際成本。

眾所周知,營養(yǎng)師、律師等專業(yè)人才的培養(yǎng),需要耗費非常多時間成本,導(dǎo)致知識流動的邊際成本較高。

相比之下,擁有大量知識儲備的通用大模型,可以加速知識的流動。

例如蒙牛與智譜AI合作,打造了一個AI營養(yǎng)師助手,實現(xiàn)了健康測評、營養(yǎng)計劃制定、運動計劃制定等功能,仿佛一個貼身營養(yǎng)師。

三是減少重復(fù)性腦力勞作。

事實上,腦力勞動中有大量重復(fù)性勞作,例如整理會議紀(jì)要、PPT排版等。

因此,WPS與智譜AI合作,推出了智能辦公助?產(chǎn)WPS AI。

針對文字編輯、PPT演示文檔等場景,提供一系列輔助功能,例如生成會議紀(jì)要、公文等等,從而讓更多人專注于創(chuàng)造性工作中。

智譜AI在“造鐵路”上的探索,給業(yè)界提供了一個可供參考的模板。

過去幾個月,不論是中國還是美國的AI公司,都加快了“造鐵路”的腳步。

目前,業(yè)界已取得了一些階段性成果。然而,商業(yè)落地只是技術(shù)革命的A面;水面之下,創(chuàng)新生態(tài)的建設(shè)同樣重要。


誰來造鐵路?



2016年,谷歌大腦團隊率先將深度學(xué)習(xí)技術(shù)應(yīng)用于翻譯軟件中,在中英文翻譯上取得了巨大突破。

彼時,谷歌能夠在“造鐵路”上先行一步,背后其實是一整套創(chuàng)新生態(tài)在發(fā)揮作用。

當(dāng)時谷歌翻譯的理論基礎(chǔ),來自于人工智能泰斗辛頓的學(xué)生、現(xiàn)OpenAI首席科學(xué)家伊利亞的研究成果。

彼時,他在論文中介紹了改良版的RNN算法,并展示出了它在翻譯等NLP任務(wù)上的潛力。

而這篇論文,發(fā)布于2014年的NIPS大會——它是全球最頂級的AI學(xué)術(shù)會議,許多創(chuàng)新都誕生于此。

在美國,高校、頂級學(xué)術(shù)會議、產(chǎn)業(yè)等環(huán)節(jié),彼此高度相關(guān),構(gòu)成了一個活躍的創(chuàng)新生態(tài)。而在工業(yè)革命期間,美國能夠更快建設(shè)起鐵路,也是因為當(dāng)時的創(chuàng)新氛圍,培養(yǎng)了大批活躍的工程師。

事實證明,想要把“鐵路”造好,光靠個人努力顯然不夠,需要發(fā)動更多人一起參與創(chuàng)新。

當(dāng)下,智譜等科技公司也深知不能閉門造車,在大模型產(chǎn)業(yè)生態(tài)圈建設(shè)上付出了不少努力。從2022年開始,智譜開始著手于開源生態(tài)的建設(shè)。

這一年,智譜首次開源了具有1300億參數(shù)的雙語雙向稠密模型GLM-130B,深受開源社區(qū)歡迎。

自8月發(fā)布以來,GLM-130B模型已經(jīng)收到了來自70余個國家、1000余個研究機構(gòu)的使用需求。

圖片

開源的意義,在于“眾人拾柴火焰高”,是推動技術(shù)創(chuàng)新的一種重要方式。

因此,智譜繼續(xù)延續(xù)了這一做法,開源了單卡版模型ChatGLM-6B,對學(xué)術(shù)研究完全開放,企業(yè)在登記獲得授權(quán)后,也可免費商業(yè)使用。

如今,在AI研究者圈子中,智譜可謂頗有名氣,開源模型的全球下載已超過1300萬次。

在這基礎(chǔ)上,智譜AI也在努力構(gòu)建學(xué)術(shù)生態(tài),不僅贊助了包括NIPS在內(nèi)的全球頂級學(xué)術(shù)會議,并且與CCF(中國計算機學(xué)會),以及國內(nèi)各大高校展開了合作,設(shè)立首屆CCF-智譜大模型基金等贊助計劃。

除此之外,智譜AI也鼓勵更多創(chuàng)業(yè)者加入到大模型浪潮之中。

智譜AI推出了ChatGLM金融大模型挑戰(zhàn)賽、大模型開源基金等扶持項目,共同建設(shè)繁榮的國產(chǎn)大模型生態(tài)圈。

建設(shè)創(chuàng)新生態(tài),是一個打地基的過程,其實相當(dāng)重要——畢竟,這直接關(guān)乎了“造鐵路”的速度。


尾聲



“造鐵路”這件事,其實并沒有看上去那么簡單。

去年9月,紅杉資本曾發(fā)表過一篇文章,認(rèn)為AI浪潮正轉(zhuǎn)向“第二幕”,即利用新技術(shù)端到端地解決現(xiàn)實社會中的問題。

但當(dāng)時的紅杉認(rèn)為,進展效果并不理想,大模型仍需要證明價值[5]。

智譜AI在商業(yè)化落地的初期中,還遇到了不少現(xiàn)實問題。如,國內(nèi)的SaaS產(chǎn)業(yè)本就沒有海外發(fā)達(dá)、不同公司對模型部署以及數(shù)據(jù)合規(guī)有不同的要求等等。

幸運的是,智譜AI很早就開始了商業(yè)化的探索,并找到了一條行之有效的解法。

3月14日的智譜AI發(fā)布會上,公司CEO張鵬介紹了過去一年的商業(yè)化成果:2000+生態(tài)合作伙伴、1000+大模型規(guī)模化應(yīng)用、與200多家企業(yè)深度共創(chuàng)。

圖片
智譜AI CEO張鵬

真正意義上的“AI第二幕”,如今正以超乎預(yù)期的速度鋪開。

某種意義上,眼下的盛況,其實與19世紀(jì)末的美國其實頗為相似,越來越多地人都開始投身于“造鐵路”的事業(yè)當(dāng)中。

如何將“鐵路”造得又快又好,已是當(dāng)下AI行業(yè)最重要的議題。因為將關(guān)系到未來中國的科技公司,能夠在人工智能的產(chǎn)業(yè)分工中,掌握多少話語權(quán)。

圖片


參考資料

[1] 深度學(xué)習(xí)革命,凱德·梅茨
[2] 烏鎮(zhèn)指數(shù):全球人工智能發(fā)展報告(2017)
[3] The Key To Winning The Global AI Race,NOEMA
[4] Andrew Ng: Opportunities in AI - 2023,Stanford Online
[5] Generative AI’s Act Two,Sequoia

作者:陳彬
編輯:張澤一
視覺設(shè)計:疏睿
責(zé)任編輯:張澤一

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多