<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 設計應用 > 用英特爾? 酷睿? Ultra及OpenVINO? GenAI本地部署DeepSeek-R1

用英特爾? 酷睿? Ultra及OpenVINO? GenAI本地部署DeepSeek-R1

作者:張晶,李翊瑋 時(shí)間:2025-03-26 來(lái)源:OpenVINO 中文社區 收藏

-R1在春節期間引發(fā)了全球科技界的熱度,-R1 是由 開(kāi)發(fā)的開(kāi)源推理,用于解決需要邏輯推理、數學(xué)問(wèn)題解決和實(shí)時(shí)決策的任務(wù)。使用 DeepSeek-R1,您可以遵循其邏輯,使其更易于理解,并在必要時(shí)對其輸出提出質(zhì)疑。此功能使推理在需要解釋結果的領(lǐng)域(如研究或復雜決策)中具有優(yōu)勢。AI 中的蒸餾從較大的創(chuàng )建更小、更高效的模型,在減少計算需求的同時(shí)保留了大部分推理能力。DeepSeek 應用了這項技術(shù),使用 Qwen 和 Llama 架構從 R1 創(chuàng )建了一套提煉的模型。這使我們能夠在普通筆記本電腦上本地試用 DeepSeek-R1 功能。在本教程中,我們將研究如何使用 OpenVINO? 運行 DeepSeek-R1 蒸餾模型。

本文引用地址:http://dyxdggzs.com/article/202503/468651.htm

本文將基于OpenVINO? GenAI庫,介紹使用三行Python代碼,將DeepSeek-R1模型到英特爾酷睿Ultra CPU、GPU或NPU的完整過(guò)程。

◆ 趕緊在本地運行與OpenAI-o1能力近似的DeepSeek-R1模型

https://mp.weixin.qq.com/s/Nu6ovClNOAfhXa-exnlWdg

◆ OpenVINO? GenAI庫

https://mp.weixin.qq.com/s/1nwi3qJDqAkIXnrGQnP3Rg

1 硬件介紹

本文是用KHARAS深圳市世野科技提供基于英特爾酷睿Ultra的AI PC,只有435g, 以下為其參數:

圖片

主要特點(diǎn)

o Intel? Core? Ultra Processor Series 2 

o AI Performance: up to 115 TOPS 

o NPU: 4.0 AI Engine, up to 47 TOPS 

o GPU: Intel? Arc? 140V, up to 64 TOPS 

o 32GB LPDDR5X Memory, 1TB PCIe SSD 

o Copilot+ PC: Windows AI assistant 

o Battery Life Optimization

o WiFi+ Bluetooth: AX211D2 

應用場(chǎng)景

o AI PC 開(kāi)發(fā):以 AI 為中心的硬件和軟件的進(jìn)步使 AI 在 PC 上成為可能。將項目從早期 AI 開(kāi)發(fā)無(wú)縫過(guò)渡到基于云的訓練和邊緣。

o 多個(gè)處理器中的 AI 加速:英特爾? 酷睿? Ultra 7 258V 處理器通過(guò)混合架構將 CPU、GPU 和 NPU 相結合,并通過(guò)高帶寬內存和緩存進(jìn)行增強,從而加速 AI。 

o Intel AI PC 開(kāi)發(fā)支持:通過(guò)針對 Intel CPU 和 GPU 優(yōu)化的 OpenVINO? 工具包和 ONNX 運行時(shí)獲得 Intel 官方支持。

2 什么是OpenVINO? GenAI庫?

回到標題, 我們將用OpenVINO? GenAI庫基于OpenVINO? 工具套件和運行時(shí),提供C++/Python API,支持生成式AI模型在英特爾? 硬件平臺上快速。

圖片

◆ OpenVINO? GenAI庫

https://mp.weixin.qq.com/s/1nwi3qJDqAkIXnrGQnP3Rg

◆ OpenVINO? 工具套件

https://mp.weixin.qq.com/s/fORowUzzcPSVIO6AieoUKA

◆ Github倉:https://github.com/openvinotoolkit/openvino.genai

3 搭建OpenVINO? GenAI開(kāi)發(fā)環(huán)境

只需兩條安裝命令,即可完成OpenVINO? GenAI開(kāi)發(fā)環(huán)境的搭建:

# 安裝OpenVINO GenAI
pip install openvino-genai
# 安裝optimum-intel,用于轉換并量化生成式AI模型
pip install pip install optimum-intel[openvino]

4下載并量化DeepSeek-R1模型

請先使用下面的命令,從ModelScope下載DeepSeek-R1-Distill-Qwen-1.5B模型到本地:

# 安裝ModelScope
pip install modelscope
# 下載DeepSeek-R1-Distill-Qwen-1.5B模型
modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

圖片

5 使用 Optimum-CLI 工具轉換模型

本文使用optimum-intel命令,將DeepSeek-R1-Distill-Qwen-1.5B PyTorch格式模型轉換為OpenVINO? IR格式模型,并完成FP16、INT8或INT4量化。

Optimum Intel 是 Transformers 和 Diffusers 庫與 OpenVINO? 之間的接口,用于加速 Intel 架構上的端到端管道。它提供易于使用的 cli 界面,用于將模型導出為 OpenVINO? 中間表示 (IR) 格式。

以下命令演示了使用 optimum-cli 導出模型的基本命令

optimum-cli export openvino --model--task <任務(wù)>

其中 --model 參數是 HuggingFace Hub 中的模型 ID 或帶有 model 的本地目錄(使用 .save_pretrained 方法保存),--task 是  導出的模型應該解決的支持任務(wù)之一。對于 LLM,建議使用 text-generation-with-past。如果模型初始化需要使用遠程代碼,則應額外傳遞 --trust-remote-code 標志。

optimum-cli export openvino --model d:DeepSeek-R1-Distill-Qwen-1___5B --task text-generation-with-past --weight-format int4 --group-size 128 --ratio 0.8 --sym d:dsr1_int4
optimum-cli export openvino --model d:DeepSeek-R1-Distill-Qwen-1___5B --task text-generation-with-past --weight-format int8 d:dsr1_int8
optimum-cli export openvino --model d:DeepSeek-R1-Distill-Qwen-1___5B --task text-generation-with-past --weight-format fp16 d:dsr1_fp16

設置 --weight-format 分別為 fp16、int8 或 int4。這種類(lèi)型的優(yōu)化可以減少內存占用和推理延遲。默認情況下,int8/int4 的量化方案是非對稱(chēng)的,要使其對稱(chēng)化,您可以添加 --sym。

對于 INT4 量化,您還可以指定以下參數:

--group-size 參數將定義用于量化的組大小,-1 將導致每列量化。

--ratio 參數控制 4 位和 8 位量化之間的比率。如果設置為 0.9,則意味著(zhù) 90% 的層將被量化為 int4,而 10% 的層將被量化為 int8。

較小的 group_size 和 ratio 值通常會(huì )以犧牲模型大小和推理延遲為代價(jià)來(lái)提高準確性。您可以使用 --awq 標志啟用在模型導出期間以 INT4 精度額外應用 AWQ,并使用 --datasetparameter 提供數據集名稱(chēng)(例如 --dataset wikitext2)

注意:

1. 應用 AWQ 需要大量的內存和時(shí)間。

2. 模型中可能沒(méi)有匹配的模式來(lái)應用 AWQ,在這種情況下,將跳過(guò)它。

圖片

6 編寫(xiě)DeepSeek-R1的推理程序

獲得DeepSeek-R1的OpenVINO? IR模型后,即可使用OpenVINO? GenAI庫編寫(xiě)推理程序,僅需三行Python代碼,如下所示:

import openvino_genai
#Will run model on CPU, GPU or NPU are possible options
pipe = openvino_genai.LLMPipeline("D:dsr1_int4", "GPU")
print(pipe.generate("Prove the Pythagorean theorem.", max_new_tokens=4096))

7 總結

使用OpenVINO? GenAI庫可以方便快捷的將生成式AI模型本地化部署到英特爾? 酷睿? Ultra CPU、GPU或NPU上。

參考文獻:

https://github.com/openvinotoolkit/openvino_notebooks/blob/latest/notebooks/deepseek-r1/deepseek-r1.ipynb



關(guān)鍵詞: DeepSeek 部署 模型

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>