可锐资源网

技术资源分享平台,提供编程学习、网站建设、脚本开发教程

Deepseek在Linux环境没有GPU电脑上实现本地部署

概述

目前DeepSeek异常火爆,自己没有亲身实践部署过,始终心里不踏实;因此自己准备在Linux主机上开始一步步部署,近距离的接触Deepseek.

部署人员需要掌握的技能

Linux必备技能

如果从来不熟悉Linux的,可以按照步骤一步一步操作;如果能够熟练使用Linux各种shell命令,可以更快的部署

学习目的

1.了解 DeepSeek 的基本概念和应用场景。2.掌握在无显卡的 Intel x86 平台上部署 DeepSeek 的流程和方法3.能够独立在Linux系统完成 DeepSeek 的本地部署和测试

Linux的安装部署

硬件环境要求

CPU:Intel x86 平台,建议 3 核以上
内存:至少 16GB
存储:至少 50GB 可用空间

软件要求:

操作系统:Ubuntu 20.04 或 CentOS 7 或者 Oracle Linux Server
          如果不清楚自己是哪个系统,可以执行如下命令查看
		  cat /etc/*release 
		  我的linux系统是Oracle Linux Server
其他环境:
Docker(必选) 安装Docker的命令,请自行搜索

安装步骤

创建 Ollama Docker实例

拉取Ollama镜像,执行如下命令:

  命令行如下:
     docker pull ollama/ollama:latest

创建Ollama运行的Docker实例

创建Docker镜像

执行如下命令:
    mkdir /data
    mkdir /data/dockersoft
    mkdir /data/dockersoft/deepseek-R1
    mkdir /data/dockersoft/deepseek-R1/data
    docker run -d -v /data/dockersoft/deepseek-R1/data:/root/.ollama -p 11434:11434 --name ollama

拉取DeepSeek模型数据

安装完成后,执行如下命令,进入docker容器:
    docker exec -it ollama /bin/bash
进入成功后,执行如下命令拉去模型(1.5b):
    ollama pull deepseek-r1:1.5b    
如果需要拉取其余模型,请将deepseek-r1:1.5b替换为对应的名字),其余模型的名字可以打开如下网址查看:
   https://ollama.com/library/deepseek-r1

运行模型,开始对话

执行如下命令,启动模型(针对前面拉取的模型):
比如,我拉取的是deepseek-r1:1.5b,我将启动deepseek-r1:1.5b模型,
执行如下命令:
   ollama run deepseek-r1:1.5b

出现如下图显示页面,表明已经正确启动对话;

在Send a message 中输入对话内容,本地DeepSeek将会开始回答。(下图是我的输入)

如果要退出系统,请在输入的命令行中输入如下命令:/bye

总结

以上是自己在linux上安装deepseek的安装步骤,经过本人亲自测试;所有安装过程真实有效;不管你是否使用deepseek,都推荐大家亲自安装部署一下,毕竟deepseek是今年的一大热点,说不定也是未来发展的重要趋势。

如果大家在安装过程中有什么疑问,随时私信联系。

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言