原来如此!
谢谢谢谢!泥潭太有爱了
13b就是个玩具 当不了生产力的
你家里部署的是70b么?
实测跑32B的deepseek r1是没问题的 但是没有主动散热会烫手(掉电应该也蛮快的)
家里当然用的是API啦,我这是讨论offline的情况哈哈哈
哇 谢谢谢谢!
感觉不如 rog 幻x 2025, ai max+ 395, 128g 统一内存,据说可以跑70b。
有没有坛友吃了螃蟹,来讲讲。
一听名字就感觉续航不行哈哈哈 我去查查
我还真在飞机上写过代码,但也就是 6 个小时飞机写了俩小时这样,经济舱确实有点折磨,需要祈祷前面别往后靠,而且 15/16 寸的屏幕打开太占地方了。我现在就是 32G 的 mac,试过本地 14B 确实没问题,但问题是我自己做的很多内容不看文档和论文可能不大能推进进度,没网效率很差
质量过关吗?现在最好的是哪个?
现在居然还有IPS显示屏,真良心啊
cs phd吗
建议买wifi
你要load 模型用在平常玩一玩装点其他开发工具 app 256 硬盘大概率不够用
都能承受16 → 32G的黄金内存溢价了 为何不上pro
要真坚持买air就坚持甜点位的16+256 不然建议上pro
macbook想要外接双显示屏,必须得上pro把
m4 chip的MBA已经支持了,不需要Pro
24G ram的m4 macbook pro能跑本地模型吗
买个飞机wifi吧 你机器能跑的模型基本和写代码无缘 都属于那种写出来1小时 改bug11小时 如果你喜欢改bug可以考虑。
air其实base就可以了 写代码靠api 飞机上买个switch或者steamdeck打打游戏。。。
lz不管是工作还是学生,都应该有人给你compute在云端写码。所有生产力的配置,都不应该是自己操心的东西。
如果没人给你这个的话,不如想想为啥还没人给你这些东西。
因为不是100%的时间都能连上WiFi的。而且WiFi也不总是免费的。WiFi钱我得自己掏