admin管理员组

文章数量:1442892

周末用笔记本搞点大事:手把手教学部署 1.5、7B 版本 DeepSeek 智能助手

读者朋友们,好久不见!希里安在这真诚地问候大家:近来可好?保重自己!

时间飞快,2025 农历新年都已经过去多日了。又一年开始了,祝大家一切顺利!

最近工作周边听到最多的话题莫过于 DeepSeek 和哪吒 2 了,创作者的精神都是值得我们学习,作为普通人就是不断去深耕一个领域,最终多少都会有收获。

尽管网上已经有很多部署DeepSeek的教程,但是理论结合实践,自己动手的印象更加深一些,不是吗。

今天就来介绍下如何在个人笔记本部署一个小版本的 DeepSeek(DeepSeek-R1 1.5B 7B)模型的完整步骤,即使小白也能轻松上手。


一、工具介绍

1.1 DeepSeek

这么火的产品,希里安这里就不多做介绍了,详细的大家可以自行官网了解。

/

1.2 Ollama

Ollama 是一个开源工具,可在本地运行各类大模型,包括 Mistral、Llama 和 DeepSeek-R1。使用 Ollama,只需一行命令便可启动模型,同时保证所有数据都在本机运行,有效保护隐私。

/

二、准备工作

2.1 系统要求

  • 操作系统:Windows 10 及以上版本
  • 硬件配置:我这里是四年前的笔记本,16G 内存,2060 的 6G 显存,虽然 1.5B 模型对 GPU 与内存要求较低,但建议至少 8GB 内存
  • 网络环境:安装过程中需要联网下载相关安装包,但部署后可以离线使用

2.2 下载 Ollama 安装包

  • 访问 Ollama 官网(或搜索“Ollama Windows 下载”),进入下载页面。
  • 选择 Windows 版本下载 OllamaSetup.exe 文件。部分用户可能会遇到下载速度较慢的情况,可使用百度云盘提供的备用链接( Chatbox-1.9.8-Setup.exe链接: OllamaSetup.exe链接: )

三、Ollama 的安装与验证

3.1 安装 Ollama

  1. 双击下载好的 OllamaSetup.exe 文件,按照安装向导提示进行安装。默认情况下,Ollama 会安装在 C 盘。
  2. 如果您希望将程序安装在其他盘,可参考系统软链接设置,将安装目录同步到目标磁盘(此步骤适合有一定经验的用户)。
  1. 安装完成后,按下 Windows+R 快捷键,打开命令提示符(CMD)。
  2. 输入以下命令检测版本: ollama -v
  3. 若命令返回类似 ollama version is 0.5.7 的版本信息,则说明 Ollama 安装成功。

四、部署DeepSeek-R1 1.5B、7B模型

4.1 选择模型版本

DeepSeek-R1 模型提供多个版本选择,包括 1.5B、7B、14B 等。对于 Windows 部署且硬件条件有限的用户,建议选择最小的 1.5B 版本。参数数量说明如下:

  • 1.5B:15 亿参数,适合入门体验和轻量级任务;
  • 较大版本(如 7B、14B)虽然性能更强,但对硬件要求更高。

4.2 启动 DeepSeek

在命令提示符下直接运行以下命令启动 DeepSeek-R1 1.5B或者7B模型:

代码语言:javascript代码运行次数:0运行复制
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b

此命令会自动下载所需模型文件,并启动模型服务。运行过程中,可以看到模型拉取、验证、加载等详细日志。

4.3 与模型交互

启动完成后,终端将显示提示信息,例如: Send a message (/? for help) 此时您就可以向模型发送消息测试功能,例如输入: 你是谁? 模型会根据预设回答内容回复

五、可视化聊天

5.1 选择 Chatbox

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可以方便回答结果,不用再在命令行中查看了。

Chatbox 软件有多种用途,但作为一个模型 API 和本地模型的连接工具,其主要功能一直都是完全免费的。 近期任何收费教程、付费社群、付费部署捆绑包均与 Chatbox 无关,请用户谨慎辨别。

5.2 选择 Ollama API

  • 在设置中选择默认的 ollama api,api 域名保持默认,模型就选择已经安装的模型即可

六、常见问题与解决方案

6.1 下载速度慢

使用文中备用下载链接或通过网络加速工具提升下载速度。

6.2 模型启动失败

  • 确保网络连接正常,检查 Windows 防火墙设置,允许 Ollama 通过。
  • 以管理员身份运行命令提示符重新尝试。

总结

通过以上步骤,已成功在个人笔记本上利用 Ollama 部署了 DeepSeek-R1 1.5B 7B 模型,希望能帮助大家实现本地化 AI 部署,体验智能问答的魅力。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。原始发表:2025-02-16,如有侵权请联系 cloudcommunity@tencent 删除部署工具模型内存DeepSeek

本文标签: 周末用笔记本搞点大事手把手教学部署 157B 版本DeepSeek 智能助手