当前位置:首页 > 技术分析 > 正文内容

Deepseek R1 本地安装部署

ruisui882个月前 (02-24)技术分析10

自己电脑上也装了个deepseek ,试用下效果。

一、电脑配置

CPU:AMD Ryzen 7 5800H with Radeon Graphics 3.20 GHz

RAM:32G

显卡:NVIDIA GeForce RTX 3060 Laptop GPU,8G显存

系统:win10 专业版


二、安装ollama

deepseek本地运行需要选择一个运行平台,开源用的多的包括ollama、LLM Studio等,我使用的是ollama。

ollama有多种安装方式,在windows操作系统下主要是win安装版和docker安装版两种,为了方便隔离实验,我选择采用了docker安装版的方式。

1.在win10专业版上安装wsl2、linux子系统,然后再安装dockerdesktop。没有安装过的可以参考我的另一篇文章【dify练习日记-dify本地安装部署】。

2.先启动dockerdesktop,然后使用管理员模式进入powershell,拉取ollama镜像。指令如下

docker pull ollama/ollama

下载成功后,在dockerdesktop中可以看到对应的image.



3.启动ollama容器

启动ollama容器有两种版本,CPU版和GPU版,没有NV显卡的可以采用CPU版本,我使用的是GPU版本:

在powershell中执行指令

(1)CPU:

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

(2)GPU:

docker run -d --gpus=all -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

创建ollama容器成功后,在desktop中可以看到对应的container。



注意,如果使用GPU版本需要在执行创建ollama容器前先做好NV显卡相关配置准备工作。


三.Nvidia显卡配置准备工作。(使用gpu的这个步骤必须)

1.下载Nvidia最新的显卡驱动程序,并安装。

安装Nvidia驱动程序,可以通过安装Nvidia APP的方式,在Nvidia的官网上就有。


2.安装 NVIDIA Container Toolkit。安装container toolkit 后则无需再在电脑上安装CUDA。

使用管理员模式进入wsl2,然后采用apt的方式进行 toolkit的安装。


(1)配置存储库

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

(2)从存储库更新软件包列表

sudo apt-get update

(3)安装 NVIDIA Container Toolkit 软件包:

sudo apt-get install -y nvidia-container-toolkit

(4)验证docker可以成功调用GPU:

docker run --gpus all ubuntu nvidia-smi

成功则会有如下执行结果:



四、下载deepseek模型,并执行

1.使用ollama拉取deepseek模型。

进入ollama container,然后在命令行窗口内执行指令

ollama run deepseek-r1:8b

下载成功后会自动执行进入deepseek会话模式


输入指令回车,就可以与deepseek对话了。



我的电脑跑7B的模型还是很快的,想下14B的模型,可是不知道是不是网络的原因,一直没有成功。

ollama里可以拉取的deepseek模型列表如下:


DeepSeek-R1-Distill-Qwen-1.5B DeepSeek-R1-蒸馏-Qwen-1.5B

ollama run deepseek-r1:1.5b


DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-蒸馏-Qwen-7B

ollama run deepseek-r1:7b


DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-蒸馏-骆驼-8B

ollama run deepseek-r1:8b


DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-蒸馏-Qwen-14B

ollama run deepseek-r1:14b


DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-蒸馏-Qwen-32B

ollama run deepseek-r1:32b


DeepSeek-R1-Distill-Llama-70B DeepSeek-R1-蒸馏-骆驼-70B

ollama run deepseek-r1:70b


这样deepseek在本地电脑上就安装部署好了,下次再使用的时候还是执行ollama run deepseek-r1:7b即可。

扫描二维码推送至手机访问。

版权声明:本文由ruisui88发布,如需转载请注明出处。

本文链接:http://www.ruisui88.com/post/2210.html

分享给朋友:

“Deepseek R1 本地安装部署” 的相关文章

「2022」打算跳槽涨薪,必问面试题及答案——VUE篇

1、为什么选择VUE,解决了什么问题?vue.js 正如官网所说的,是一套构建用户界面的渐进式框架。与其它重量级框架不同的是,vue 被设计为可以自底向上逐层应用。vue 的核心库只关注视图层,不仅易于上手,还便于与第三方库或既有项目整合。另外一方面,当与现代化工具链以及各种支持类库结合使用时,vu...

Vue3 中有哪些值得深究的知识点?

众所周知,前端技术一直更新很快,这不 vue3 也问世这么久了,今天就来给大家分享下vue3中值得注意的知识点。喜欢的话建议收藏,点个关注!1、createAppvue2 和 vue3 在创建实例时,有很大的区别,具体对比如下://Vue 2 Vue.use({ router, store,...

博信股份新战略后再推新品 TOPPERS E2耳机售价199元

中新网6月21日电 20日,博信股份在北京正式推出新品TOPPERS主动降噪耳机E2,这是博信股份继2月战略暨新品发布会后的第二次新品亮相。价格方面,TOPPERS主动降噪耳机E2零售价199元,并于6月20日下午4点在京东商城公开销售。据介绍,TOPPERS主动降噪耳机E2采用AMS(奥地利微电子...

壹啦罐罐 Android 手机里的 Xposed 都装了啥

这是少数派推出的系列专题,叫做「我的手机里都装了啥」。这个系列将邀请到不同的玩家,从他们各自的角度介绍手机中最爱的或是日常使用最频繁的 App。文章将以「每周一篇」的频率更新,内容范围会包括 iOS、Android 在内的各种平台和 App。本期继续歪楼,由少数派撰稿作者@壹啦罐罐介绍他正在使用的...

2024最新版:前端性能优化方案汇总

前端训练营:1v1私教,终身辅导计划,帮你拿到满意的 offer。 已帮助数百位同学拿到了中大厂 offer。欢迎来撩~~~~~~~~Hello,大家好,我是 Sunday。前端性能优化一直是很多同学非常关注的问题,在日常的面试中也是经常会被问到的点。所以今天咱们就花一点时间来了解一下2024最新的...

vue-router是如何解析query参数呢? #前端

vue-router 中的 query 解析。1. 大家好,我是龙仔。今天来分享 vue-router 是如何解析快乐参数的,因为使用 vue 路由会传 query 参数和快乐参数,所以从 vue 的角度来看如何解析传递的快乐参数。2. 基础知识大家应知道,快乐参数结构如:a、b、c、a、b、c、a...