英偉達展示全新一代Rubin架構,AI芯片仍舊是技術“高地”
英偉達(NVIDIA)執行長黃仁勛在Keynote主題演講中展示了全新一代的Rubin架構,顯示其正在加速全新架構的推出腳步。
黃仁勛表示,Blackwell的下一代架構將是Rubin架構,且Rubin GPU將采用8顆HBM4,而Rubin Ultra GPU將采用12顆HBM4。
據悉,這個新的架構架構以美國天文學家Vera Rubin命名,她在理解宇宙中的暗物質方面做出了重大貢獻,并在銀河系旋轉率方面做了開創性的工作。
值得一提的是,盡管英偉達才剛推出了新的Blackwell平臺,但看起來英偉達正在加速其路線圖。根據黃仁勛最新公布的信息,Rubin GPU將成為R系列產品的一部分,預計將在2025年第四季度量產。Rubin GPU及其相應平臺預期將在2026年推出,隨后在2027年推出Ultra版本。英偉達還確認Rubin GPU將使用HBM4存儲器。
根據外媒wccftech的消息,英偉達的Rubin GPU將采用4x光罩設計,并將使用臺積電的CoWoS-L封裝技術,并采用N3制程。此外,英偉達將使用下一代HBM4 DRAM來為其Rubin GPU提供動力,目前英偉達在其B100 GPU中使用最快的HBM3E存儲器,并預計在2025年底當HBM4存儲器解決方案大幅量產時,用HBM4版本來更新這些芯片。
GB200供應鏈已啟動,預計將催生相應增量市場
英偉達Q1營收260億美元,同比增長262%;凈利潤148.1億美元,同比上升628%,均超預期。英偉達CEO黃仁勛表示,預計今年Blackwell架構芯片將帶來大量收入;Blackwell架構芯片(B200/GB200)將于二季度發貨,并將于三季度增產
GB200供應鏈已啟動,預計2025年的訂單和供應鏈配置將在未來幾個月中得到最終確認。根據摩根士丹利預測,基于CoWoS(先進封裝技術的一種)的產能分配,2024年下半年預計將有42萬顆GB200超級芯片交付至下游市場,2025年預計產量為150萬~200萬顆。
GB200的研發過程對封裝和測試環節提出新要求,預計將催生相應增量市場。英偉達的目標是在當前光刻技術的芯片尺寸極限上來實現計算速度的極限,而不是通過減小芯片尺寸和使用芯片組來提高產量。GB200的高性能設計需要更先進的測試設備和技術來檢測潛在的缺陷,確保每一個芯片的高可靠性。芯片尺寸的加大會導致芯片的合格率下降,進而促進對半導體測試的需求增長。隨著HBM速度和容量的提升,內存測試器、探針卡和探測器的需求將會上升,將推動芯片級測試的更廣泛應用。
Blackwell即將迎來放量
黃仁勛強調,英偉達也將加快其他所有芯片的更新速度,以匹配這一節奏。“我們將以非常快的速度推進所有產品線。”“新的 CPU、新的 GPU、新的網絡網卡、新的交換機…… 即將迎來大量芯片新品。”
在近日的財報電話會議上,當被詢問有關最新款 Blackwell GPU 如何在上一代 Hopper GPU 仍暢銷的情況下快速放量的問題時,黃仁勛解釋說,英偉達新一代人工智能 GPU 在電氣和機械方面都可實現向下兼容,并且可以運行相同的軟件。他表示,客戶在現有數據中心可以“輕松地從 H100 過渡到 H200,再過渡到 B100”。
為了解釋對英偉達人工智能 GPU 的巨額需求,黃仁勛還在電話會議中分享了一些銷售觀點:
在我們過渡到 H200 和 Blackwell 的過程中,預計將迎來一段供不應求的時間。所有人都想要盡快讓他們的基礎設施上線運行,理由是這些產品可以幫助他們更好地節省成本并創造利潤,所以他們都希望盡早實現這一點。
他還風趣地引用了“錯失良機” (FOMO) 效應來佐證他的觀點:
下一個率先登頂下一座重要高峰的公司將能夠發布開創性的 AI 產品,而緊隨其后的公司只能發布一些性能提升 0.3% 的產品。你是想成為引領人工智能革命的公司,還是只想帶來一些微小改進的公司呢?
英偉達首席財務官還強調汽車行業將成為其“數據中心領域今年內最大的企業細分市場”,并透露特斯拉已經購買了 35000 枚 H100 GPU 用于訓練其 FSD 系統,同時像 Meta 這樣的“消費者互聯網公司”也將繼續保持“強勁的增長勢頭”。
英偉達表示,一些客戶已經購買或計劃購買超過 10 萬枚英偉達的 H100 GPU – Meta 計劃到年底在其運營系統中部署超過 35 萬枚。
AMD緊跟英偉達步伐
6月3日,AMD董事長兼CEO蘇姿豐在Computex 2024展會的開幕主題演講中,公布了全新云端AI加速芯片路線圖,今年將會推出全新Instinct MI325X。
根據AMD公布的全新云端AI加速芯片路線圖顯示,AMD今年將會推出全新的AI加速芯片Instinct MI325X,2025年推出MI350,2026年推出MI400。
據介紹,MI325X將延續CDNA3構架,采用第四代高帶寬內存(HBM) HBM3E,容量大幅提升至288GB,內存帶寬也將提升至6TB/s,整體的性能將進一步提升,其他方面的規格則基本保持與MI300X一致,便于客戶的產品升級過渡。
蘇姿豐指出,MI325X的AI性能提升幅度為AMD史上最大,相較競品英偉達H200將有1.3倍以上的提升,同時更有性價比優勢,MI325X將于今年第四季度開始供貨。
另外,AMD還將在2025年推出新一代的MI350系列,該系列芯片將采用3nm制程,基于全新的構架,集成288GB HBM3E內存,并支持FP4/FP6數據格式,推理運算速度較現有MI300系列芯片快35倍。
據供應鏈信息透露,MI350將進入液冷世代,為AI服務器運算提供更強的算力、更佳的能源效率。
2026年,AMD還將會推出新一代的MI400系列,保持一年一更新的節奏。
