行业新闻
英伟达急于出售,但中国并不急于购买。
作者: 365bet登录 点击次数: 发布时间: 2025-12-17 10:22
Nvidia急于在中国销售H200芯片。数据图 深度审视中国芯片产业。 12月初,国内GPU公司摩尔线程、沐熙上市,必仁科技、燧源科技也正在筹备IPO。其中,摩尔螺纹股价5个交易日涨幅超过7倍,直接进入A股第三贵股位置,股价直追寒武纪、贵州茅台。在中国GPU“四小龙”大力“创新”之际,全球市值最大的英伟达却卷土重来。 12月9日,美国总统特朗普在Truth Social平台上发帖称,将允许英伟达向中国等地区的“认可客户”出口其H200人工智能芯片,目的是确保国家安全继续得到保障,前提是美国获得25%的份额。其他类似产品如AMD a英特尔也将被删除。这一次,那一次。 H20因“后门”问题接受约谈,但并未如期回归中国市场。半年后,比H20更先进的H200会不会重蹈H20的覆辙呢?关于美国“平衡点”的传闻流传已久,终于成为“新闻”。美国以美国政府允许的高调方式宣布特朗普总统。英伟达在中国销售H200芯片,保留四分之一的“疏通费”。 AMD 和 Intel 的类似产品被认为是相同的。对于英伟达来说,这相当于长期干旱。虽然今年市值一度达到5万亿美元,但四季度以来,由于供应链融资、ASIC崛起、中国市场份额为零、AI投资泡沫争议等一系列问题,英伟达市值回落至4.5万亿美元左右,已告急市场需求即“血液市场需求”。在全球传播NVIDIA技术也是美国霸权战略的重要组成部分——使用的人越多,其技术霸权就越牢固。今年5月,特朗普在中东三个国家推销英伟达、AMD和高通的芯片,赢得了价值数千亿美元的订单。 2025年5月15日,特朗普会见阿联酋总统穆罕默德·本·扎耶德。双方达成价值超过2000亿美元的协议。不过,NVIDIA的全球推广版图上唯一缺少的是中国。在中国,英伟达GPU市场份额一度达到90%以上,美国政府禁止。 Nvidia 将于 2022 年向中国出口人工智能芯片。H20 是为符合法规而定制的中国“特殊”版本。 2025年1月,特朗普上任时还宣布了三级芯片管控规定,阻止先进AI芯片流入中国。对于最近批准的交易中,美国政策仍与今年7月解除H20禁令时相同,遵循“不在中国销售最先进产品”的目标——不包括英伟达旗舰Blackwell芯片和下一代Rubin芯片。 “巧合”的是,由于H20的“后门”问题在解禁后不久就被曝光,12月10日,即H200被下架的第二天,Reu报道称,英伟达已经开发出“位置验证技术”,可以显示其芯片运行在哪个国家;它还将监控芯片的整体计算性能。该技术将首先在Blackwell芯片中推出。 2025年10月,黄仁勋参观了台积电位于亚利桑那州凤凰城的半导体制造工厂,庆祝第一片美国制造的Blackwell晶圆正式上市。虽然H200没有“位置验证技术”,但它仍然可能包含其他“后门”。中国客户总是心存疑虑。法H20和H200的te也不同。 H200的“放手”显得更加清脆、清晰,不像H20的缠绵。 H200的性能是H20的6倍。美国政府为何突然“慷慨”?原因之一是英伟达首席执行官黄延森不断游说白宫和公众“强硬地谈论”利弊。今年10月,黄仁勋公开宣称,“我们要在美国的技术架构上建设世界”,“我们需要进入中国市场”。这种说法非常符合“美国优先论”。 12月3日,黄仁勋公开回应了美国智库“战略与国际研究中心”人工智能中心主任格雷戈里·艾伦前一天在参议院听证会上主张加强芯片出口管制的言论。黄仁勋强调,发展人工智能是国家系统工程。简单地休息芯片出口不仅不能解决美国人工智能发展的深层次结构性困境,而且还会自掘坟墓,放弃主要市场。在他看来,放弃中国市场就等于培养中国竞争对手。 7天后,特朗普宣布发布英伟达“次先进”H200芯片。 NVIDIA H200芯片不过,无论是禁止还是允许出口,美国政府的出发点都没有改变。出口禁令是为了阻止中国直接使用美国先进的芯片来发展人工智能,而允许出口则是为了阻止中国建立独立的先进系统芯片产业。因此,此次允许H200出口,是美国政府双边霸权平衡的体现——既要提高美国芯片在中国市场的竞争力,又要维持美国芯片的技术销售。中国市场的需求仍然非常敏感到H200解禁的时间。此番恰逢中国本土AI芯片产业资本化进程加速之际。国产GPU“四小龙”都在加速IPO。摩尔线程上市,股价大涨425%,市值一度突破3200亿元。木希的“国产GPU二级股”股票即将上市,认购热度不亚于摩尔线程。必仁科技和随缘科技也正在筹备IPO。 2025年12月5日,摩尔线程股价上涨425%。在英伟达先进芯片拿不到的日子里,国产芯片的市场份额却悄然提升。 IDC预测数据ay显示,2024年国产芯片算力市场份额将达到三分之一,2025年第一季度增至40%,年底有望突破50%。虽然国内市场占有率厂商增多,此时H200的解禁仍然面临着不小的压力。造成压力的主要原因是,国产AI芯片主流算力水平在NVIDIA A100和H100左右,H200优势明显。——FP16算力733TFLOPS,内存容量146GB,内存带宽4800GB/s,最大集群规模256卡,总处理性能(TPP,TotalProcessingPerformance)15840。只有华为接近其国内水平。产品(Ascend 9100CTFLO Ascend 910CTFLO显存容量,9100TFLOPS显存容量。128GB,显存带宽3200GB/s,最大簇大小384卡,2024年第四季度量产,TPP12032),而其他大多数厂商尚未解决量产问题。以今年的旗舰AI芯片为例。寒武纪MLU690的FP16计算能力约为420TFLOPS,显存容量为96GB,视频内存理论带宽2048GB/s,最大集群规模32卡。第三季度为“工程样品”状态;昆仑酷睿P800,FP16算力560TFLOPS,显存容量96GB,显存带宽2048GB/s,最大集群规模64卡,一季度处于“小批量生产”状态。 2025人工智能计算大会上,昆仑酷睿P800 OAM模组亮相AICC 2025展区。目前大型人工智能模型的训练主要采用FP8量化技术来减少GPU的内存占用和计算成本。 H200芯片支持与美国性能相同的FP8训练构建,还可以通过“计算FP4存储+FP8”的方式兼容FP4模型,缩小与领先的Blackwell芯片系列的差距。目前演进路线上能继续与H200竞争的是华为下一代950芯片,适合FP8、但一年后的950芯片在整体处理性能上可能无法跟上H200,尽管内存配置、卡间互连、集群能力都很强。因此,国内一些大型模型公司“出国培训”使用H200也是情理之中;这也证明了中国市场对H200的需求。另一方面,H20却因为“缺乏技术”而无法在中国销售。 H20的TPP为2368,而华为Ascend 910B的TPP为5120,寒武纪思源590的TPP为4493,两者都优于H20。应该卖还是买?作为卖家,英伟达比中国买家更着急。其来自中国的收入大幅下降。从英伟达公布的财报来看,2025年第三季度,其在中国的营收占比达到5.3%,大部分来自PC、游戏等非AI芯片收入。 2023年第一季度,这一比例仍达到22.1%。一个同时,由于英伟达的垄断,谷歌、亚马逊、微软等互联网巨头都遭遇“溢价”,自研芯片相当可观。亚马逊的AI芯片Trainium 3,打着与Nvidia GPU相比“成本一半”的口号,吸引了OpenAI签署合作协议。 MaMicrosoft的ia 100已部署在Azure数据中心并支持OpenTraining AI模型。 2025年12月2日,亚马逊云计算服务(AWS)在年度云计算盛会“AWS re:Invent 2025”上发布了全新自主研发的Trainium3芯片。谷歌的TPU出货量尤其旺盛,这恰巧让负责制造的博通业绩增长了两位数。谷歌的Gemini模型也符合预期,为业界提供了另一种选择——人工智能模型无需NVIDIA芯片也能达到世界一流水平。据报道,谷歌已经在 Meta 中讨论“供应”。当 Google TPU 开始提供其他公司而言,这将直接削弱Nvidia芯片的垄断地位。黄仁勋的传记作者斯蒂芬·威特表示,“英伟达最大的风险显然是谷歌。如果谷歌证明他们可以用自己的芯片保持领先的人工智能开发,那么它将为其他巨头树立榜样。”考虑到负面因素,黄仁勋渴望重新开放中国市场。虽然H200要给美国政府25%的“佣金”,这会导致毛利率从75%下降到40%左右,但只要卖出去,短期利润的增幅就会很大。 2025年10月31日,英伟达CEO黄仁勋在亚太经合组织(APEC)峰会上接受记者采访时表示,将继续努力进入中国市场,但中国客户不一定买账。第一类是主要的互联网公司,几乎都采用自研芯片+自研AI框架的模式。他们想赶上world级机型,能力强大,但其在役芯片性能与H20基本相同。他们将是H200的主要买家。第二类是云提供商。不过,国内云提供商普遍依赖华为等国产芯片,尤其是政企云,因此需求可能有限。此外,想要在本地部署模型的传统企业以及想要影响人工智能模型的初创团队可能会有一些需求。然而,这些需求并不一定需要H200。国产芯片完全可以满足,没必要给英伟达贡献收入。当然,gagaChina的政策也起到了决定性的作用:不仅考虑到国产芯片的发展进程,还考虑到NVIDIA芯片的“后门”或“位置验证技术”的风险,以及中国企业的真实需求以及中美两国“互利共赢”的目标d 州。作者 |编辑荣智慧|翔贤值班编辑 |吴庆排版|阿澈
特别声明:以上内容(如有,包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(如有,包括图片、视频)由网易号用户上传发布,网易号为社交媒体平台,仅提供信息存储服务。 上一篇:公园回应永历皇帝雕像躺在泥里引发争议 下一篇:没有了
