admin管理员组文章数量:1438495
前言
Ollama 是一个用于在本地运行大型语言模型的开源工具,它为开发者和爱好者提供了便捷的方式来部署、管理和与大语言模型进行交互。
所以我们要先下载Ollama才能在命令行使用它来进行模型的本地部署。
一、官网下载
进入官网网址 Ollama
点击Download按钮
这里我只演示Windows下载,所以我们选中Windows,最后点击按钮(由于官网下载很慢,我这里给你们提供我的0.5.13版本安装包)
夸克网盘
链接:https://pan.quark/s/f59f23af4ccc
提取码:mah2
百度网盘
链接: https://pan.baidu/s/1hDptCpzgAxkaqqS46uYNvA
提取码: Rain
二、安装
安装包大概1GB,安装完之后有大约6GB
由于该安装程序只能默认安装到C盘,C盘空间紧凑的可以使用命令行安装
1. 把下载好的安装包放到你想要安装的磁盘和目录(也可以不放)
我示例放到以下目录 D:\Models\Ollama
2. 在安装包所在目录点击地址位置,输入cmd
随后命令提示符便定位到你安装包该目录
3. 输入命令行进行安装
如果安装包所在目录就是你想要安装的目录,执行以下命令:
(这里的 "."
表示当前目录,即安装包所在的目录。)
OllamaSetup.exe /DIR="."
如果你没有进行安装包的移动,但是想把他安装的文件放到你已经创建好的目录,执行以下命令:
(DIR双引号里面的地址改为你的目录地址)
OllamaSetup.exe /DIR="D:\Models\Ollama"
等待安装界面跳出,点击Install后等待即可
三、配置环境变量
以下是一些 Ollama 推荐配置的环境变量及作用:
- OLLAMA_MODELS:用于指定模型文件的存放目录。默认目录因系统而异,如在 Windows 系统中为
C:\Users\%username%.ollama\models
,在 Linux 和 macOS 系统中为~/.ollama/models
或/usr/share/ollama/.ollama/models
。建议将其修改到空间较大的磁盘分区,以避免 C 盘空间不足。- OLLAMA_HOST:指定 Ollama 服务监听的网络地址。默认为
127.0.0.1
,表示仅允许本地访问。如果希望局域网中的其他电脑能够访问 Ollama,建议设置为0.0.0.0
,这样可以允许其他网络访问。- OLLAMA_PORT:Ollama 服务监听的默认端口是
11434
。如果该端口有冲突,可以修改为其他端口,如8080
等。- OLLAMA_ORIGINS:用于设置 HTTP 客户端请求来源,是一个半角逗号分隔的列表。若仅在本地使用,无严格要求时可以设置成星号
*
,代表不受限制。- OLLAMA_KEEP_ALIVE:决定大模型加载到内存中的存活时间。默认为
5m
(即 5 分钟),可以根据需求进行调整。例如,设置成24h
,则模型在内存中保持 24 小时,这样能提高访问速度,减少模型重复加载的时间成本。- OLLAMA_NUM_PARALLEL:用于控制请求处理的并发数量。默认为
1
,即单并发串行处理请求。可根据服务器的性能和实际需求进行调整,以充分利用硬件资源,提高处理效率。- OLLAMA_MAX_QUEUE:设置请求队列的长度,默认值为
512
。可以根据实际情况进行设置,当请求数量超过队列长度时,新的请求将被抛弃。- OLLAMA_DEBUG:在应用研发阶段,可以将其设置成
1
,此时会输出详细的日志信息,便于排查问题。- OLLAMA_MAX_LOADED_MODELS:用于限制最多同时加载到内存中的模型数量。默认为
1
,即只能有 1 个模型在内存中。如果服务器资源充足,可以适当增加该值,以支持同时使用多个模型。
接下来我举几个较为重要的环境配置例子,大多数用户需要配置:
OLLAMA_MODELS
OLLAMA_HOST
OLLAMA_ORIGINS
1. 打开资源管理器,右击此电脑,随后点属性,再点击高级系统设置,跳出的系统属性窗口中点击环境变量,在系统变量那一栏点击新建
2. 在跳出的窗口中轮次输入相应信息
三个环境变量配置完之后的环境变量、系统属性窗口一定要依次点击确定,不要叉掉窗口退出
3. 在你完成到这一步的时候请查看现在是否启动了Ollama,如果启动了请关掉它,再重新开启,避免环境变量没有立刻生效而导致下一步安装模型时安装到C盘的默认位置
右键关闭
打开,因为Ollama是没有可视化界面的,确认开启状态时点击状态栏箭头看有没有出现图标即可
4. 确认Ollama版本
输入命令行
ollama -v
5. 浏览器查看API服务,输入网址:127.0.0.1:11434
四、下载模型
在此以使用deepseek为例,其余模型可从官网的Models页面进入寻找命令
1. 复制命令:
ollama run deepseek-r1
2. 随后在命令提示符(cmd)输入命令,后面要加上英文字符:再加上你所需要的模型的参数量规模(参数量是衡量模型规模和能力的一个关键指标。模型参数是在训练过程中学习到的数值,它们决定了模型如何处理输入并生成输出。一般而言,参数量越多,模型能够学习和表示的模式就越复杂,其语言理解、生成等能力可能也就越强,但同时也会带来更高的计算成本和更长的训练时间。)在此我选择默认的7b:
ollama run deepseek - r1:7b
再检查Models的安装
很棒,到此你已经完成了deepseek大模型的本地部署了,接下来更加有趣的API接入等着你去探索
版权声明:本文标题:Ollama本地模型部署模型windows(含安装包)详细易懂 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.betaflare.com/biancheng/1747581126a2715485.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论