电竞比分网-中国电竞赛事及体育赛事平台

分享

實測!本地部署免費開源大模型:DeepSeek-R1,能力媲美OpenAI-4o

 冷茶視界 2025-01-27 發(fā)布于江蘇

內(nèi)容提要 

  • 本地部署DeepSeek-R1大模型

大家好,我是冷水泡茶。
最近有個AI大模型DeepSeek非?;?,它性能卓越,直接挑戰(zhàn)GPT-4o,而且免費開源,還可以本地部署,強悍得不要不要的。關(guān)鍵的一點,它是目前為止,最強悍的國產(chǎn)大模型。
我們今天來試一試本地部署,不用聯(lián)網(wǎng)也能使用。
1、下載 Ollama,這是一個用于本地運行AI模型的工具平臺,下載地址:

https:///

我們點“Download”下載:

接下來會自動匹配你的操作系統(tǒng),如果沒有問題,點擊下載鏈接下載安裝文件(我的電腦是WINDOWS操作系統(tǒng),系統(tǒng)要求Win10以上,安裝文件有745M):

2、下載一個Chrome插件:Page Assist,這是一個可以在瀏覽器里運行本地AI模型的插件,Edge瀏覽器也適用,插件地址:

https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo

也可以在應用商店搜:Page Assist
3、Python(這個不確定需不需要,在向幾個AI提問如何用ollama部署本地大模型的時候,都提到安裝Python以及相關(guān)依賴庫,反正我的電腦上是安裝了Python的)。

安裝

1、雙擊下載好的安裝文件,OllamaSetup.exe。

2、安裝好以后它會自動運行,在任務(wù)欄我們可以看到:

我們打開命令行,執(zhí)行以下命令安裝相應的模型,顯存4G以下的,我們選1.5B的(我的電腦顯存只有2G)。

1.5B Qwen DeepSeek R1

ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

ollama run deepseek-r1:7b

8B Llama DeepSeek R1

ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

ollama run deepseek-r1:32b

70B Llama DeepSeek R1

ollama run deepseek-r1:70b

等待拉取模型成功

使用

1、在命令行直接輸入對話:

2、關(guān)閉對話后,如果要重新運行,同樣地,我們輸入以下命令,不過,這次它不會再去拉取模型了:

ollama run deepseek-r1:1.5b

3、在瀏覽器中運行,點擊插件,選擇模型:

我們點擊右邊的“設(shè)置”,選擇RAG設(shè)置,選擇文本嵌入模型,其他的暫時不動,記得保存

我們試一下,問一個推理問題:昨天的明天是哪天?

回答正確,速度也很快!不過有點遺憾的是,我再問它同樣的問題的時候,它就回答錯了。可能是參數(shù)較小的關(guān)系,我在它官方網(wǎng)站上連續(xù)兩次提問:

“昨天的今天是哪天?

它都準確地回答是“今天”。

寫在最后

1、本地部署成功,但是運行速度有時候有點卡,這跟電腦配置有關(guān)系。

2、除非是沒有任何網(wǎng)絡(luò),我覺得本地模型的意義不是很大,一則電腦硬件實在有限,運行速度慢,二則模型的參數(shù)量太小,精度不高,功能有限。我后來又下載了一個7B的模型,運行速度就慢得很,差點死機。

3、如果把數(shù)據(jù)安全保密放在第一位的,我們選擇本地模型沒毛病,特別是要使用專門的知識庫進行訓練的。這時候我們應該考慮提升電腦硬件配置啦。

今天就到這里,我們下期再會!


~~~~~~End~~~~~~

    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多