5分钟学会使用 Ollama 部署 DeepSeek R1
· 6 min read
最近 DeepSeek 风头正盛,很多人在出教程,教大家如何安装 DeepSeek,这很好。但是有一部分人把简单的事情搞的太复杂了,明明几分钟就可以搞定的事情,巴拉巴拉说了半个小时还没开始进入正题。还有一部分人在误导大家,搞的好像会部署 DeepSeek 就学会 AI 了一样,这里必须说明一下,会部署DeepSeek 学会 AI。而学会使用 AI 工具和懂 AI 原理又是两码事。
对于普通用户,其实不建议本地部署 DeepSeek,大模型对显卡要求较高。哪怕是 4090 来运行大模型,效果也没有直接使用官网的好。自己部署的话单4090只能部署一个 32b
版本,多张 4090 显卡也只能部署一个 70b
的版本,而官网和其他平台提供的 DeepSeek R1 是 671b
的满血版本,说在本地部署 DeepSeek R1 用起来能快到飞起的基本都是在扯蛋。
在官网 API 及其不稳定的情况下,拥有多张显卡的小伙伴们,本地部署一个 32b
版本或者70b
版本,来跑一些要求不太高的批量任务还是可以的。
Ollama 介绍
部署 DeepSeek 使用的是 Ollama. Ollama 是一个开源的大模型运行工具,专注于帮助用户在本地运行大型语言模型(LLMs),并且 Ollama 可以在多平台运行。