DeepSeek R1 真的可以 locally host (需要好的 GPU),大家快来试试 (step-by-step instructions inside)

完了它一晚上,太好玩了。真的不敢相信 32b parameter model 能这么快这么好,一个 RTX 3090 用起来完全没问题

大家快试试

Instructions are for Windows machines

Prerequisites
Download Ollama Download Ollama on macOS
Download Docker Get Docker | Docker Docs

Run Ollama (it will run in the background)

Open a command prompt or PowerShell window and type one of these:

1.5B version (smallest):
ollama run deepseek-r1:1.5b

8B version:
ollama run deepseek-r1:8b

14B version:
ollama run deepseek-r1:14b

32B version:
ollama run deepseek-r1:32b

70B version (biggest/smartest):
ollama run deepseek-r1:70b

EDIT:有人做出来没有审查的版本,需要使用可以用以下 command

32B version:
ollama run huihui_ai/deepseek-r1-abliterated:32b
or
ollama run huihui_ai/deepseek-r1-abliterated:32b-qwen-distill

70B version:
ollama run huihui_ai/deepseek-r1-abliterated:70b

more info here
huihui_ai/deepseek-r1-abliterated

Pick your parameter size based on your graphics card (32b model 对我的 RTX 3090 非常友好,22/24 GB VRAM used):

Then type


docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Then go to http://localhost:3000

Use any name and email; it’s stored locally

然后就好了

output

89 个赞

为啥觉得这会有假的 :wulian:
它们又不是ppt画饼的那种路子 :wulian:

14b的普通mac都能用

12 个赞

好像又多了一个买5090的理由 :clown_face:

32gb vram真香

本地跑的话能防止模型被弱智吧入侵?(没啥llm知识,可能是个很蠢的问题。。

14b的16G mac也能用,问了几句感觉水平一般吧,14b水平也就3.5-4o的样子,不过能本地运行挺好的。其实说实话不用装docker里的webui,直接命令行互动也不错,而且还能揭示思考过程,挺有意思的(其实是webui还没更新适配R1)(mac不建议使用docker webui,把内存吃满了都,建议使用商店里的enchanted LLM,原生6M不占内存)

9 个赞

这个思考过程挺好玩的,怪不得o1这么贵,纯纯的浪费token:一句话让ai给我生成8000字

18 个赞

真好啊 感谢楼主分享!

需要本地跑的使用场景不多

试了一下感觉不错
有一个local的ai挺方便的

1 个赞

问一个纯小白问题:

能不能当记事本使用?

lik告诉AI一些事情然后之后忘了可以提问或者帮助回忆 或者说到相关话题就会提醒起这个相关事件

小到自己什么东西放哪 明天下周下个月有啥要去做的事

大到…账号密码…?security question的答案?

不要 本地存就行 可以加点trick帮助自己
比如生日改成农历再每个数字位加一些(你觉得有规律正常人/ai看不出规律)的变形

当记事本的话就要吃你电脑配置了,会比较慢, 14b的模型估计一页A4纸的输入就让人着急了……但其实生成token的速度远比读入慢,所以实际上多输入一点还好

提醒就用普通语义解析的parser就好了,应该是有一些notes会在你输入的时候提醒你加到reminder/calendar的
东西放哪这种我用类似apple自身的备忘录的,加图同步都挺方便

4 个赞

:yaoming:试水了以下LMStudio,下载完直接运行


也不怎么吃性能

不过我的机器感觉能跑qwen 13b,所以还是要配ollama


群友一致好评

3 个赞

同问本地跑的 私人的 use cases. (不讨论公司的问题,工作有公司付账)

好东西好东西

泥潭能人辈出,学习了。

中午 lunch break 继续试试

艹 真不敢相信自己的 GPU 可以运行这个model 还挺快的

完全有 ChatGPT 3.5 的水平

突然觉得我这么多年拿 3090 玩游戏好像很浪费

6 个赞

感觉是Mac的金子内存最有用的一次

3 个赞

好想再买一个 3090 试试 70b parameter version

1 个赞

model run 起来后
也可以用chatboxai (https://chatboxai.app/)

host用默认的
选要用的model就行

3 个赞

大神, 本地跑最大的好处是啥