跳转至

个人本地部署deepseek-r1指南

前言

在AI技术快速发展的今天,部署和展示AI模型是一个非常重要的技能。本文将指导你如何在本地部署DeepSeek-R1,并通过客户端工具或网页界面进行展示

如果你电脑配置不错,且期望不受网络限制也可以流畅使用deepseek,那就开始吧~~

安装ollama

Ollama是一个开源的 LLM(大型语言模型)服务工具(就是大模型运行工具),用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型。

https://ollama.com/

ubuntu-cpu

官方GitHub地址: GitHub - ollama/ollama

我们这里采用docker的方式来安装

https://hub.docker.com/r/ollama/ollama

我们这里只考虑仅仅是cpu的情况,英伟达gpu可以参考上面链接里面的安装指南

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

window-amd显卡

因为默认官方ollama提供amd的支持到RX6800显卡,低版本不支持,查看链接

System requirements (Windows) — HIP SDK installation (Windows)

对于官方支持 HIP SDK 的显卡,只需要下载并安装 AMD 官方版本的 ROCm 和 Ollama 的官方版本就能直接使用。

所以有了开源大神做了一个amd分支,本文主要是介绍对于官方不支持的显卡应该如何安装并使用 ROCm 和 ollama。

ollama-for-amd开源地址

Releases · likelovewant/ollama-for-amd · GitHub

下载 ROCmLibs

下载对应显卡型号的压缩包,由于我的显卡是6750gre,LLVM target是gfx1031

Release v0.6.1.2 · likelovewant/ROCmLibs-for-gfx1103-AMD780M-APU · GitHub

那么我这里就需要下载 rocm.gfx1031.for.hip.sdk.6.1.2.7z

下载安装ollama-for-amd

下载完成后运行安装包一键安装完成,安装成功后运行 ollama,对于官方不支持的版本,也可以进行编译,编译请参考地址:Home · likelovewant/ollama-for-amd Wiki · GitHub

我这里采用下面这个安装包直接安装

修改 ollama-for-amd

从log中我们可以看到 ollama 没有跑在显卡上,输出没有发现兼容的显卡,直接查看server.log里面的内容

server.log

现在需要用之前下载 的ROCmLibs

打开软件安装目录,比如这是我的安装路径 C:\Users\lin\AppData\Local\Programs\Ollama\lib\ollama

  1. 将压缩包中的 rocblas.dll 替换 C:\Users\lin\AppData\Local\Programs\Ollama\lib\ollama\rocblas.dll
  2. 将压缩包中的 library 文件夹替换 C:\Users\lin\AppData\Local\Programs\Ollama\lib\ollama\rocblas\library

退出 ollama 并重新运行

安装deepseek-r1

deepseek-r1

安装完成以后,我们可以启动ollama,接下来可以通过终端进行对话

ubuntu-cpu

docker exec -it ollama ollama run deepseek-r1:7b

windows-amd显卡

#打开powershell
ollama run deepseek-r1:7b

window-amdGPU显卡使用效果

可以说效果非常明显,GPU回答的流式速度很快,比上面ubuntu-cpu环境快很多,利用率最高峰值的时候接近100%,充分利用,等答复完毕后,立马降下来,果然还是有GPU很香

windows客户端安装

地址:Chatbox AI官网

我们使用本地模型,然后输入

网页版客户端安装

可以参考上一篇公众号的open-webgui配置,可以通过open-webgui来进行对话

补充下配置open-webgui ,右上角用户logo处,右键管理员配置 ,然后如下图,根据自己的地址和端口进行配置,最后有个旋转箭头是测试验证,可以自己验证下

总结

我们通过ollama 大模型工具来安装deepseek-r1,解决了ollama对低版本amd显卡的支持

有三种对话聊天方式,第一种是终端,第二种是Chatbox,第三种是open-webgui方式都可以进行交流 ,好了,可以搭建起来进行玩玩了祝你成功

博客链接 (想看无码大图请访问博客地址) https://wiki.budongshu.cn/ (酷酷分享栏目下面)

评论