Ollama是一款开源本地大语言模型运行工具,支持在个人电脑上离线运行DeepSeek等AI模型。它适合处理私密文件、访问国内受限模型(如谷歌Gemma3)以及充分利用本地显卡性能。截至2025年5月9日,该项目在GitHub获得140K星标。安装过程简单:官网下载对应系统安装包(如Windows的OllamaSetup.exe),运行后通过命令行启动模型(例如"ollama run deepseek-r1:8b")。用户可根据显卡配置选择不同模型,运行成功后可直接在命令行与AI交互。该工具特别适合需要本地运行大模型的用户。

文章目录
Ollama是什么?
Ollama是一款开源的本地大语言模型运行工具软件。大家都有用过DeepSeek、豆包或者类似的软件吧,简单来说,Ollama就是一款可以你在自己电脑上搭建一个完全免费DeepSeek(或其他模型)的软件。而且搭建好之后完全可以离线使用,不用担心网络不好之类的问题。
为什么要用Ollama?
你会说现在DeepSeek、豆包或者其他各类的软件安装在手机上就能直接用,我为啥还要在自己电脑上安装一个这样的软件呢?好问题👍,的确,如果直接简单的在手机上搜搜问题,用现有的AI软件就足够了。但是站长觉得你有以下几点的需求,再来看看这个软件是否是你需要的。
- 我经常有一些私密的文件要处理,我不想或不能上传到网上处理。
- 有些模型我也想体验,但是我在国内没法访问,比如谷歌的gemma3。
- 显卡在机箱里躺平,我想给自己的显卡上上强度,让他长出八块腹肌💪(重要)。

好了,言归正传,如果有本地玩玩大模型的需求,Ollama现在是不二之选啊,毕竟截止至2025年5月9日,GitHub官网上的140K星标⭐足以证明其含金量。
如何安装Ollama?
- 先去官网下载安装包:点击去官网下载,打开这个链接你应该可以看到下面这个界面,
然根据自己的电脑选择安装包,比如Windows就点击 Download for Windows 这个按钮。 - 下载完成双击那个羊驼的图标 OllamaSetup.exe ,然后下一步下一步就OK安装完成了。
- 如果C盘不大(站长C盘早就不够用,所以买了个1T的固态做C盘😂),可以参考这篇文章《把Ollama安装到D盘并使用NVIDIA GPU运行大模型》。
- 安装完成启动后你电脑的右下角应该有一个羊驼的图标在运行就表示服务启动成功了。
如何使用Ollama?
Ollama安装好之后我们可以按官方给的例子直接在命令行CMD里运行以下命令就可以启动:
(怎么打开CMD:按住 + R 键,然后在运行里输入 cmd。)
ollama run deepseek-r1:8b
上面命令的意思就是:用 ollama 运行 deepseek-r1:8b 这个模型。当前官网还有很多模型可以选择,站长选择这个模型是因为我只有个4060TI 16G的显卡。如果大家有更厉害的显卡和设备,可以去官网的模型列表去看看找到自己合适的。下载和运行成功后应该会看到像下面一样的命令提示:
pulling manifest
pulling 96c415656d37: 100% ▕██████████████████████████████████████████████████████████▏ 4.7 GB
pulling 369ca498f347: 100% ▕██████████████████████████████████████████████████████████▏ 387 B
pulling 6e4c38e1172f: 100% ▕██████████████████████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd: 100% ▕██████████████████████████████████████████████████████████▏ 148 B
pulling 40fb844194b2: 100% ▕██████████████████████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
>>>
这时候你就可以直接在命令行里和模型对话了,到此大功告成✌,下面是我测试对话的效果图:

Ollama官网下载地址:https://ollama.com/download
Ollama安装到D盘:如何把Ollama安装到D盘并使用NVIDIA GPU运行大模型
Ollama官网模型地址:https://ollama.com/models
评论功能已关闭。