【华为新模型不用nvda gpu训练】华为也做空女大了?

话不多说看图





2 个赞

华为不用自己的GPU才有问题

11 个赞

现在AI模型下一代应该要开始卷图像生成了,文字生成卷到头了

早应该了 我实在搞不懂 为啥全世界只有英伟达一家GPU
世界上有什么公司的一类硬件是独家的?

2 个赞

一直以来有Google的TPU也可以训吧 只是Google不往外卖

inference的话之前比较出圈的有sombanova的inference RDU,但感觉训练用gpu才是nvda命根子

4 个赞

因为


NV发明了GPU :yaoming:

1 个赞

我意思是 TPU GPU这一类啊
例如上面网友说GOOGLE 但是人家不卖
那其他公司应该有类似的 *PU才对啊

例如芯片 那么多公司生产芯片
例如手机 电脑硬件 那么多公司生产

华为也买不了Nvidia gpu,能有啥影响 :rofl:

Nvidia gpu上面的cuda做的太好用了,最近全方位支持python,进一步降低门槛。

amd 之类gpu 对应的opencl hip之类太拉垮。。

1 个赞

华为说它用英伟达GPU训练才有问题啊

1 个赞

华为号称要自成体系的一套工具谁用过谁恶心,ascend什么的都烂完了,除了做给领导当样子看我想不出任何意义

所以昇腾都是卖给SB的? :yaoming:

1 个赞

因为nvda是软件公司,cuda cublass cudnn etc…

你别说,真是卖给傻逼的。客户自己越傻逼,越适合买昇腾。因为坑太多了,无论客户水平如何,买了的都必须由人还挺多的菊厂工程师团队专门支持,客户水平越差越沾光,活都丢给菊厂的人干就完事了。

国内软件这块做的最好的其实是闷声发大财的另一家,甚至自己 dogfood 拿来训出了全球最火的开源 dense 模型 :yaoming:

5 个赞

GPGPU 确实基本 NVDA 吧

华为用英伟达才是搞笑。他要是真公开说用了才是对英伟达的重大利空。
因为商务部就得立刻去调查英伟达的出货情况。那新加坡这几年的巨大增幅就面临直接问题。

华为用也完全构不成什么竞争,国内阿里,腾讯这些私企在华为和英伟达之间大概率还是选英伟达,因为选华为就代表着被绑死了。哪个私企想把自己的AI依托于华为?看看新加坡这几年英伟达的增长就懂了。

等什么时间Grok,OpenAI开始用华为了再说利空英伟达吧 :yaoming:

5 个赞

为什么openai grok这种不招人搞自己的训练卡呢?是因为烧不起钱吗

为什么台积电不自己设计芯片呢?

求大佬细说,一直无脑用Nvidia没咋听过

因为专业的人做专业的事才能实现效率最大化。如果OpenAI这些公司招人来研发芯片能比直接买划算他们早干了。但现实中大多数情况英伟达这种体量才能达到最佳economic of scale.
华为要不是被卡脖子和政治任务他们也就用供应商的了。
对于大多数正常的公司,就是要全世界找最佳供应商合作,达不到要求才自己生产。而不是上来就担心卡脖子要全产业链自己做。

5 个赞

后半句已经点名是哪一家了。

硬件本身不往外卖的,自家云上对少量外部客户提供。走的 1:1 源码兼容 CUDA 的编程模型(用 clang 的 cuda 前端)和 runtime API 的路线。dense 算子肯定还是得厂商提供,但这部分其实还好,像 torch 里茫茫多的 .cu 大部分又不是要贴合硬件死扣性能的 matmul。这样搞主要优势在于好支持社区现有的东西,直接用他们提供的 “nvcc” drop-in replacement 把 torch 和客户自己原来的大部分代码基本编译一下就能用,不会像菊厂那样一个 rmsnorm 这种花边计算的精度都抠半天还对的有问题。劣势在于这么搞要是还公开卖的话怕是 NV 要上门,只能闷声发大财。

2 个赞