OpenAI、英特爾、AMD合力圍剿,英偉達一家獨大格局何時能破?
隨著生成式AI的大熱,英偉達正在數據中心領域大殺四方,這也幫助他們實現了更好的業績。根據公司公布的數據,截至 2023 年 7 月 30 日的第二季度,英偉達收入為 135.1 億美元,較上一季度增長 88%,較去年同期增長 101%。
不過,英偉達目前的業績預期很多都是基于當前的芯片和硬件所做的。但有分析人士預計,如果包含企業 AI 及其 DGX 云產品,該數據中心的市場規模將至少是游戲市場的 3 倍,甚至是 4.5 倍。
英偉達在最近公布了一個包括H200、B100、X100、B40、X40、GB200、GX200、GB200NVL、GX200NVL 等新部件在內的產品路線圖,這對英偉達未來的發展非常重要。
1、精準的供應鏈控制
據semianalysis說法,英偉達之所以能夠在群雄畢至的AI芯片市場一枝獨秀,除了他們在硬件和軟件上的布局外,對供應鏈的控制,也是英偉達能坐穩今天位置的一個重要原因。
英偉達過去多次表明,他們可以在短缺期間創造性地增加供應。英偉達愿意承諾不可取消的訂單,甚至預付款,從而獲得了巨大的供應。目前,Nvidia 有111.5 億美元的采購承諾、產能義務和庫存義務。Nvidia 還額外簽訂了價值 38.1 億美元的預付費供應協議。單從這方面看,沒有其他供應商可以與之相媲美,因此他們也將無法參與正在發生的狂熱AI浪潮。
自 Nvidia 成立之初起,黃仁勛就一直積極布局其供應鏈,以推動 Nvidia 的巨大增長雄心。黃仁勛曾在重述了他與臺積電創始人張忠謀的早期會面中表示:
“1997 年,當張忠謀和我相遇時,Nvidia 那一年的營收為 2700 萬美元。我們有 100 個人,然后我們見面了。你們可能不相信這一點,但張忠謀曾經打銷售電話。你以前經常上門拜訪,對嗎?你會進來拜訪客戶,我會向張忠謀解釋英偉達做了什么,你知道,我會解釋我們的芯片尺寸需要有多大,而且每年都會變得越來越大而且更大。你會定期回到英偉達,讓我再講一遍這個故事,以確保我需要那么多晶圓,明年,我們開始與臺積電合作。Nvidia 做到了,我認為是 1.27 億,然后,從那時起,我們每年增長近 100%,直到現在。”
張忠謀一開始不太相信英偉達需要這么多晶圓,但黃仁勛堅持了下來,并利用了當時游戲行業的巨大增長。英偉達通過大膽供應而取得了巨大成功,而且通常情況下他們都是成功的。當然,他們必須時不時地減記價值數十億美元的庫存,但他們仍然從超額訂購中獲得了積極的收益。
2、AMD首先出擊
AI 芯片方面,今年1月2023年消費電子展(CES)上,AMD董事長、CEO蘇姿豐(Lisa Su)正式發布下一代面向數據中心的APU(加速處理器)產品Instinct MI300,采用臺積電5nm+6nm結合的Chiplet架構設計,集成CPU和GPU,擁有13顆小芯片,晶體管數量高達1460億個,AI性能和每瓦性能是前代MI250的8倍和5倍(使用稀疏性FP8基準測試),將在2023年下半年量產供貨。
隨后6月,AMD還公布全新專為生成式 AI 打造、擁有1530億個晶體管的 AI 加速芯片Instinct MI300X、Instinct MI300A等產品,在存儲容量、互聯帶寬方面均有提升,MI300X的晶體管數量比H100多兩倍,HBM3高帶寬內存是H100的2.4倍。單顆芯片上可以運行800億參數的大模型,預計今年底之前發貨。
這不僅全面展示收購賽靈思之后的數據中心 AI 技術能力,而且也在挑戰英偉達 AI 算力芯片霸主地位。
當然不止是GPU和 AI 芯片,AMD最擅長的就是做CPU(中央處理器)芯片,畢竟數據中心需要CPU的通用計算能力。去年11月,AMD發布了采用Zen 4架構的第四代數據中心EPYC 9004系列,代號為“熱那亞”(Genoa),不僅架構升級,蘇姿豐還在這顆芯片上堆料堆到了極致:臺積電5nm制程,96個核心,192個線程,384M三級緩存,支持PCle5.0。
與英特爾的八核處理器相比,AMD的數據中心、邊緣計算CPU系列在能耗、性能方面都有很大提升,包括熱那亞芯片面積減少40%,同時能源效率提高48%。
今年9月,AMD則推出最新第四代EPYC 8004系列,將“Zen 4c”核心引入專用CPU,提供從智能邊緣(例如零售、制造和電信)到數據中心、云計算等領域。
事實上,亞馬遜云AWS發布了基于熱那亞M7A通用計算實例,最終結果顯示,性能相比前一代提升50%,而相比英特爾第四代至強白金版8490H版,熱那亞在多個應用場景的性能提升達1.7-1.9倍,整體的能效提升達1.8倍,全面用于金融建模、天氣模擬、藥物研發等高性能計算領域。另外在 IoT Edge網關工作負載中,最新八核EPYC 8024P供電的服務器也為每8kW機架提供大約1.8倍的總吞吐量性能。
整體來看,無論是CPU、GPU,還是FPGA、DPU數據中心處理器,或是軟件棧工具AMD ROCm系統,AMD都已經做好了準備,正“磨刀霍霍”以挑戰英偉達的產品。
3、60多年的芯片巨頭英特爾,也不想將市場“拱手讓人”
今年7月11日,芯片巨頭英特爾公司(Intel)在北京發布面向中國市場、采用7nm工藝的 AI 芯片Habana Gaudi2,可運行大語言模型,加速AI訓練及推理,運行ResNet-50的每瓦性能約是英偉達A100的2倍,性價比相較于AWS云中基于英偉達的解決方案高出40%,并預計今年9月性價比超越英偉達最新H100。
英特爾執行副總裁Sandra Rivera 今年7月對鈦媒體App表示,不可能有唯一一家企業獨霸 AI 芯片市場。因為市場需要多樣性,并且客戶也希望看到更多的芯片企業在 AI 領域發揮領導作用。
9月,在美國圣何塞舉辦的英特爾On技術創新大會上,基辛格宣布采用5nm制程的 AI 芯片Gaudi 3將于明年推出,屆時,其算力將會是Gaudi 2的兩倍,網絡帶寬、HBM容量則會是1.5倍。
同時,基辛格還預覽第五代英特爾至強可擴展服務器處理器,稱下一代至強將擁有288核心,預計將使機架密度提升2.5倍,每瓦性能提高2.4倍。另外,英特爾還發布Sierra Forest、Granite Rapids,與第四代至強相比 AI性能預將提高2到3倍。
阿里云首席技術官周靖人表示,阿里巴巴將第四代英特爾至強處理器用于其生成式 AI 和大語言模型,即“阿里云通義千問大模型”,而英特爾技術大幅縮短了模型響應時間,平均加速可達3倍。
此外,對于 AI 大模型訓練來說,比較重要的是軟件生態。英特爾宣布與 Arm 公司合作,使其至強產品部署到Arm CPU 上,同時推出AI推理和部署運行工具套件OpenVINO,不僅支持預訓練模型,而且只需編寫一次即可部署任何可用的關鍵跨平臺支持,已支持Meta的Llama 2模型。
同時,Linux基金會在本周還宣布成立統一加速(UXL)基金會,提供開放標準的加速器編程模型,簡化高性能、跨平臺應用程序的開發,核心是加速演進英特爾oneAPI計劃,創始成員包括 Arm、谷歌云、英特爾、高通、三星等公司——英偉達不在其中。
英特爾公司高級副總裁、英特爾中國區董事長王銳對鈦媒體App等表示,英特爾后續將發布擁有288核的處理器。數據中心在未來也會越來越多,英特爾將推出Gaudi3、Falcon Shores等產品,產品矩陣將構成未來加速器與AI計算發展的路線圖。
“我們把AI的能力內置到芯片中。根據不同需求,內置AI能力將使用不同算力、不同架構來提供支持。”王銳表示,在數據中心方面,從客戶端到邊緣端,再到云端,AI已經滲透到各種應用場景;從進行大語言模型訓練到進行小規模、普惠語言模型訓練,AI的影響力無處不在。
今年8月底基辛格表示,他認為英特爾正邁向達成其宏大的整頓目標,朝著恢復在產業的領先地位前進。而談及英偉達時,基辛格坦承英偉達布局良好,能抓住支持 AI 軟件擴張所需系統的需求,但他說,英特爾很快將開始贏得這些加速器芯片市場的訂單。
“他們做得很好,我們都贊揚他們。但我們即將展現實力。”基辛格表示。
4、OpenAI自研芯片
大模型風靡的這大半年,如果說數據是大模型的生產原料,那么算力則是大模型的生產力。此前,OpenAI公布過一組數據,大模型訓練所需算力的增速保持在3-4個月/倍速度增長,遠超摩爾定律18-24個月/倍。
強大的算力,意味著更快的數據處理速度、更強大的大模型服務能力。與此同時,伴隨著越來越多的企業入局大模型,導致對A100和H100等高端GPU的需求直線增加,英偉達及其制造伙伴臺積電,都在努力滿足供應。
今年8月,百度、字節跳動、騰訊和阿里巴巴向英偉達共訂購了價值50億美元的芯片。外部需求的爆發,導致了市場供貨異常緊張。據CoreWeave聯合創始人兼CTO Brian Venturo表示,今年一季度,獲取英偉達GPU還很容易,但從4月份開始訂購,交貨時間也要等到2024年Q1甚至Q2。
OpenAI的CEO Sam Altman也曾多次抱怨算力短缺問題,而這個市場主要由英偉達主導,該公司控制著全球80%以上最適合運行人工智能應用的芯片市場。
最近在倫敦聽證會上,Altman稱算力的短缺讓API可用性低于標準,并坦誠承認計算機芯片短缺,可能阻礙ChatGPT推出更大的“上下文窗口”。上下文窗口決定了模型的響應速度,和單次提示使用的數據。
財經評論員張雪峰表示,“OpenAI要自研芯片意味著他們希望獨立研發和生產適合其人工智能技術需求的定制化芯片。自研芯片可以使OpenAI更好地優化算法和硬件的協同工作,提升人工智能系統的性能和效率。同時,自研芯片還可以減少對供應商的依賴,降低成本并更好地滿足OpenAI獨特的需求。”
實際上,談算力問題始終離不開成本問題。分析師StacyRasgon曾估算算,ChatGPT每次查詢成本約4美分。若ChatGPT查詢增長到Google 搜索規模的十分之一,需要價值約481億美元的GPU,每年則需160億美元的芯片才能保持運行。
據外媒報道,2022年OpenAI營收2800萬美元,虧損為5.4億美元,虧損的主要算因就是算力開銷。另外,ChatGPT移動端9月收入雖增長至460萬美元,但增長疲態出現。根據市場情報公司Appfigures的最新數據,其營收增長已經開始放緩,7月份為31%,8月份為39%,9月份降至20%。
英偉達作為AI芯片市場的領先企業,在AI芯片之戰仍將保持競爭優勢,但是競爭對手通過自研芯片能夠更好地滿足特定領域和應用的需求,有望推動市場多元化,其‘霸主’地位可能會面臨一定的沖擊。他表示“隨著更多企業,包括大廠和創業公司都意識到自研芯片的重要性,AI芯片之戰未來可能呈現多個參與者自研芯片的局面,市場的進一步發展,將取決于技術創新、應用需求和市場競爭力的綜合影響。”
