近期,美国人工智能数据基本机构Scale AI创始人兼首席执行官Alexandr Wang在接受CNBC采访时叫作,DeepSeek持有大约五万块英伟达H100芯片,但因美国出口管理办法,她们不可公开谈论。
王在采访中先夸赞了DeepSeek的性能叫作,“咱们发掘,DeepSeek(R1)是日前表现最好的,或说与美国最好的模型(GPT o1)处在同一水平。”
当被问及中美两国在人工智能行业的竞争时,王暗示:“长时间败兴,美国始终处在领先地位。”不外,他弥补说,DeepSeek最新的模型确实试图改变这一局面。王认为,“中国实验室在圣诞节发布一款惊天动地的模型拥有象征道理,要晓得,咱们其他人正在庆祝节日。”
Alexandr Wang(王)CNBC
DeepSeek于2024年12月26日(美国时间12月25日)当天发布了一款“震撼性的模型”——DeepSeek-V3,随后又于1月20日推出了一款专注于推理的强大AI模型DeepSeek-R1,对标OpenAI的o1模型。
DeepSeek利用较少且不足先进的芯片训练出了媲美ChatGPT的模型。DeepSeek在一份技术报告中叫作,它运用超过2000个英伟达H800芯片集群来训练其参数为6710亿的V3模型,而Meta训练参数量4050亿的Llama 3,用了16384块更强的H100显卡,花了54天。Deepseek的训练效率为Meta的11倍。
DeepSeek暗示,训练其最新模型之一的成本为560万美元(约合人民币4100万元)。相比之下,人工智能研发商Anthropic的首席执行官达里奥·阿莫迪 (Dario Amodei )去年说到的创立一个模型的成本为1亿至10亿美元。
CNBC曾发帖叫作:“DeepSeek-R1因其性能超越美国顶尖同类模型,且成本更低,算力消耗更少,诱发了硅谷的恐慌。”
但王话锋一转,谈到了中国人工智能企业可能为人工智能模型配备的GPU数量。他叫作,“中国的实验室持有的H100芯片比人们想象的要多得多。”他弥补道, “据我认识,DeepSeek持有大约五万块H100芯片。”王认为,由于违反了美国实施的出口管理,因此DeepSeek不可谈论这些。
英伟达的Hopper架构GPU如H100和H200,因其优秀的算力,出口受到美国政府的管理。拜登政府于2022年经过一项规定禁止英伟达向中国出售性能远超其旧款GPU A100 的GPU系列,迫使英伟达研发了名为H800和A800的性能削减版芯片用以替代,但一年后的2023年10月,这两款芯片亦一并被禁止。日前,英伟达已在推广其最新一代Blackwell架构的GPU,其出口依然受到限制。
王将中美之间的人工智能竞赛描述为一场“AI战争”,并弥补道,“美国将需要海量的计算能力和基本设备,咱们需要释放美国的能量以推动这场AI繁荣。” 返回外链论坛: http://www.fok120.com,查看更加多