Apple M4 performance 相当与 Intel 的 哪一个芯片

看到Macbook Air 和Mac mini 都搭载 Apple M4 芯片。请问这个M4 performance 相当与 Intel 的 哪一个芯片? 想买一个玩玩, 试试本地运行 LLM, 譬如 llama 3.3 70b 可行吗?

更新: 谢谢各位的建议。 如果主要想试试LLM, 是否更应该prefer Mac mini? 因为乞丐版的 Mac mini 和 Macbook Air 配置一样, 价格却便宜的多。

谢谢

M4 吊打我的19款pro

4 个赞

这个主要还是要考虑内存、显存吧。

有人试过 Windows 11 for arm 吗?

台式机不懂

笔记本的话,性能+风扇方面 m1 pro就吊打i9了

1 个赞

说不好听点,这不就是WindowsPhone借尸还魂嘛~

鸡肋。。周末刚在BB退了台samsung book4edge

本地llm看GPU 对Apple silicon也就是m系来说主要看内存大小
想要跑llama3 70b的话m系电脑需要128g mem 不过我看reddit上有人说64g也能跑
另外local llm说实话意义不大

llama3太过时了 现在apple上用最多的是qwen3-32b q4/q8 MLX版 速度大概20-30t/s 写码不行 其他的够用了 MoE的Qwen3-30B-A3B 运行需要激活参数少 速度差不多能到80-100t/s

内存放得下即可,70b的Q4KM量化大概需要45-50G上下。

只是要玩玩的话那大可不必买几千块的金子内存,建议先拿手头的设备和小点的模型自己试试;真要玩也建议考虑更经济的方案。

谢谢各位的建议。我一直用Windows, 如果主要想试试MAC, 顺便看看能否Run LLM, 是否更应该prefer Mac mini? 因为乞丐版的 Mac mini 和 Macbook Air 配置一样, 价格却便宜的多。

是的,买Mini就可以了

air无风扇,估计性能上会限制,主打便携长续航.

win11 arm 的 x64 虚拟其实做的还不错
只要不是3d应用程序 目前还没遇到问题

单论性价比肯定是Mac mini更好

llm 建议用 pro 或者 max
llm 很吃显存 M系unified memory 需要大带宽
400 GB/s 和 100G 的llm 表现差距特别大

是不是租个gpu玩性价比更高?

偶尔玩玩可以 长期租不如直接买

我现在用的3080跑llm,我觉得跑continue完全不够用,换成近顶配macmini划算还是买一块5090划算呢?

当然是rtx pro 6000:doge: 泥潭里有大佬好像能8000以内搞定

1 个赞