电竞比分网-中国电竞赛事及体育赛事平台

分享

一文徹底搞懂大模型 - AI四次大發(fā)展

 kbmgmg 2024-09-08 發(fā)布于福建
AI四次大發(fā)展
在探討AI(人工智能)的發(fā)展歷程時,我們可以將其劃分為Artificial Intelligence、Machine Learning、Deep Learning和Large Language Model四個關鍵階段,每個階段都標志著技術上的重大突破和應用領域的擴展。以下是對這四個階段的詳細解析,以及它們如何共同推動了AI技術的演進,特別是最近的大語言模型(Large Language Model, LLM)的興起。
圖片
AI四次大發(fā)展

階段一:Artificial Intelligence

1950-1980:Artificial Intelligence(人工智能)的萌芽期

圖片
Artificial Intelligence

關鍵詞:symbolic(符號主義)、基于規(guī)則、專家系統(tǒng)、圖靈測試

圖片
symbolic
核心特點:以理論基礎建立為核心,采用符號主義方法,受限于計算與數(shù)據,系統(tǒng)多針對特定簡單問題,泛化能力不足
  • 理論基礎建立:這一時期,AI的概念由艾倫·圖靈等先驅提出,并圍繞邏輯推理、問題求解等核心議題展開研究。

  • 符號主義:主要基于規(guī)則的系統(tǒng),通過編寫大量規(guī)則來模擬人類智能行為,如專家系統(tǒng)。

  • 局限與挑戰(zhàn):受限于計算能力和數(shù)據量的不足,AI系統(tǒng)往往只能解決特定領域內的簡單問題,且難以泛化到更廣泛的應用場景。

圖片
Turing Test
代表成果:約翰·麥卡錫提出“人工智能”概念以及DENDRAL專家系統(tǒng)在化學領域的成功應用,這兩者共同奠定了AI發(fā)展的基礎。
  • 約翰·麥卡錫提出“人工智能”一詞。

  • 第一個專家系統(tǒng)DENDRAL在化學領域取得成功。

圖片
DENDRAL

階段二:Machine Learning

1980-2010:Machine Learning(機器學習)的興起
圖片
Machine Learning

關鍵詞:基于統(tǒng)計、數(shù)據驅動、機器學習算法、特征工程

圖片

Machine Learning

神經網絡算法 - 一文搞懂機器學習算法

核心特點:以數(shù)據驅動和統(tǒng)計學習為核心,通過優(yōu)化模型參數(shù)提升預測和分類準確性,并成功拓展至語音識別、圖像識別等多個應用領域。
  • 數(shù)據驅動:隨著數(shù)據量的增加和計算能力的提升,機器學習開始興起,強調從數(shù)據中自動學習并改進算法。

  • 統(tǒng)計學習:基于統(tǒng)計學原理,通過訓練數(shù)據來優(yōu)化模型參數(shù),提高預測或分類的準確性。

  • 應用拓展:機器學習技術開始應用于語音識別、圖像識別等領域,并取得顯著進展。

圖片
Machine Learning
代表技術:支持向量機(SVM)、決策樹、隨機森林等算法的出現(xiàn),以及神經網絡的復興(盡管面臨規(guī)模和訓練上的挑戰(zhàn)),共同推動了機器學習領域的顯著進步。
  • 支持向量機(SVM)、決策樹、隨機森林等算法的出現(xiàn)。

  • 神經網絡(盡管當時規(guī)模較小且訓練困難)的復興。

圖片
Machine Learning

階段三:Deep Learning

2010-2020:Deep Learning(深度學習)的爆發(fā)

圖片

Deep Learning

關鍵詞:connectionist(連接主義)、深度神經網絡、PyTorch、Tensorflow

圖片

connectionist vs symbolic

核心特點:在大數(shù)據、高性能計算和算法創(chuàng)新的推動下實現(xiàn)了神經網絡的復興,通過端到端學習直接從數(shù)據中提取特征,廣泛應用于圖像識別、自然語言處理和語音識別等領域,推動了AI技術的飛躍。
  • 神經網絡復興:得益于大數(shù)據、高性能計算(如GPU)和算法創(chuàng)新(如反向傳播算法的優(yōu)化),深度神經網絡(DNN)得以快速發(fā)展。

  • 端到端學習:深度學習模型能夠直接從原始數(shù)據中學習特征表示,無需人工設計特征工程。

  • 廣泛應用:在圖像識別(如ImageNet競賽)、自然語言處理(NLP)、語音識別等領域取得突破性進展,推動了AI技術的廣泛應用。

圖片
Deep Learning

代表成果:AlphaGo在圍棋領域的卓越表現(xiàn)彰顯了AI的深度學習能力,而Transformer模型的誕生則極大地推動了自然語言處理(NLP)技術的飛躍發(fā)展。

  • AlphaGo在圍棋比賽中擊敗人類世界冠軍。

  • Transformer模型的出現(xiàn),極大地推動了NLP領域的發(fā)展。

圖片

AlphaGo

階段四:Large Language Model

2020-?:Large Language Model(大語言模型)的崛起

圖片

Large Language Model

關鍵詞:scaling law(縮放定律)、AIGC、超大規(guī)模參數(shù)、PLM、SFL

圖片
Large Language Model

核心特點:超大規(guī)模參數(shù)、零樣本/少樣本學習能力以及廣泛的應用前景,這些特點共同賦予了它們對自然語言的深刻理解和生成能力,推動了AI技術的革新與發(fā)展。

  • 超大規(guī)模:大語言模型(如GPT系列、BERT等)通過訓練包含數(shù)十億甚至數(shù)千億參數(shù)的模型,實現(xiàn)了對自然語言的深刻理解和生成能力。

  • 零樣本/少樣本學習:這些模型能夠在沒有或僅有少量標注數(shù)據的情況下,完成各種NLP任務,展現(xiàn)了強大的泛化能力。

  • 應用前景廣闊:大語言模型正在改變內容創(chuàng)作、智能客服、教育、醫(yī)療等多個行業(yè)的面貌,成為AI技術發(fā)展的新熱點。

圖片
Large Language Model

代表成果:GPT系列(GPT-3、ChatGPT、GPT-4)憑借超大規(guī)模與強生成力重塑NLP,LLaMA開源則加速了LLM技術的普及與應用創(chuàng)新。

  • GPT-3及其后續(xù)如ChatGPT、GPT-4,憑借超大規(guī)模參數(shù)和強大生成能力,重塑了NLP領域,推動對話系統(tǒng)、文本創(chuàng)作等前沿發(fā)展。

  • LLaMA作為開源大模型,為研究者提供了靈活工具,加速LLM技術普及與應用探索。

圖片
LLaMA 3 vs GPT-4

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多