ChatGPT出圈、相關芯片受益,這些芯片廠商將要“狂飆”?
最近,以ChatGPT為首的生成類模型已經成為了人工智能的新熱點,硅谷的微軟、谷歌等都紛紛大舉投資此類技術(微軟100億美元入股ChatGPT背后的OpenAI,谷歌也于近日發布了自研的BARD模型),而在中國以百度等為代表的互聯網科技公司也紛紛表示正在研發此類技術并且將于近期上線。
以ChatGPT為代表的生成類模型有一個共同的特點,就是使用了海量數據做預訓練,并且往往會搭配一個較為強大的語言模型。語言模型主要的功能是從海量的現有語料庫中進行學習,在經過學習之后可以理解用戶的語言指令,或者更進一步根據用戶的指令去生成相關的文字輸出。
生成類模型大致可以分成兩大類,一類是語言類生成模型,另一類是圖像類生成模型。語言類生成模型以ChatGPT為代表,如前所述其語言模型不僅可以學習理解用戶指令的意義(例如,“寫一首詩,李白風格的”),而且在經過海量數據訓練之后,還能夠根據用戶的指令生成相關的文字(在上例中就是寫一首李白風格的詩)。這意味著ChatGPT需要有一個足夠大的語言模型(Large Language Model,LLM)來理解用戶的語言,并且能有高質量的語言輸出——例如該模型必須能理解如何生成詩歌,如何生成李白風格的詩歌等等。這也意味著語言類生成式人工智能中的大語言模型需要非常多的參數,才能完成這類復雜的學習并且記住如此多的信息。以ChatGPT為例,其參數量高達1750億(使用標準浮點數的話會占用700GB的存儲空間),其語言模型之“大”可見一斑。
另一類生成類模型是以擴散模型(Diffusion)為代表的圖像類生成模型,典型的模型包括來自OpenAI的Dalle,谷歌的ImaGen,以及目前最熱門的來自Runway AI的Stable Diffusion。這類圖像類生成模型同樣會使用一個語言模型來理解用戶的語言指令,之后根據這個指令來生成高質量的圖像。與語言類生成模型不同的是,這里使用到的語言模型主要用語理解用戶輸入,而無需生成語言輸出,因此參數量可以小不少(在幾億數量級),而圖像的擴散模型的參數量相對而言也不大,總體而言參數量大約在幾十億數量級,但是其計算量并不小,因為生成的圖像或者視頻的分辨率可以很高。
生成類模型通過海量數據訓練,可以產生前所未有的高質量輸出,目前已經有了不少明確的應用市場,包括搜索、對話機器人、圖像生成和編輯等等,未來可望會得到更多的應用,這也對于相關的芯片提出了需求。
ChatGPT有望助力高性能GPU等發展
作為人工智能深度發展到一定階段的產物,ChatGPT對芯片算力需求極高,高性能GPU等產品有望從中受益。
業界指出,自然語言類AI應用底層算力芯片以高性能GPU為主,在該類芯片中英偉達占據主要市場。據悉,ChatGPT已導入了至少1萬顆英偉達高端GPU。花旗銀行分析,ChatGPT可能會在未來12個月內為英偉達帶來30億美元至110億美元的銷售額。
另一大芯片廠商AMD在今年CES上展示了下一代面向數據中心的APU產品Instinct MI300,計劃下半年推出。Instinct MI300采用chiplet設計,擁有13個小芯片,晶體管數量高達1460億個,超過了英特爾的1000億晶體管的Ponte Vecchio,成為了AMD投入生產的最大芯片。AMD表示,Instinct MI300可以將ChatGPT和DALL-E等超大型AI模型的訓練時間從幾個月減少到幾周,從而節省數百萬美元的電力。
隨著ChatGPT概念持續火熱,國內AI芯片廠商同樣有望受益。除此之外,由于ChatGPT依賴非常大量的算力(芯片)來支持其訓練和部署,目前ChatGPT在應用時仍需要大算力服務器支持,這也有望間接帶動服務器內存發展。
英偉達是ChatGPT熱潮最大受益者
英偉達是此次ChatGPT熱潮的最大受益者,因為英偉達用于服務器的AI芯片對于超大型AI 模型的學習和推理至關重要,幾乎壟斷全球服務器用AI芯片市場。
Open AI表示,ChatGPT 是與英偉達和微軟合作完成的超級AI。 準確地說,微軟已經與英偉達合作,在其云(Azure HPC Cloud)中構建了由大量AI芯片組成的超級計算機(HPC)集群,并將其提供給OpenAI。
據了解,用于 ChatGTP 學習和推理的超級計算機擁有 285000個CPU(中央處理器)內核和10000多顆AI芯片。事實上,如果你問ChatGPT是如何學習的,它會回答,“它正在使用英偉達AI芯片學習和執行。”
OpenAI CEO Sam Altman表示,ChatGPT處理用戶查詢的每筆成本約為2美分。這是引入和使用英偉達AI芯片所需的成本。如果ChatGPT用戶數量增加,云和AI芯片的使用將不可避免地增加,這將增加英偉達的銷售額和營業利潤。
研究人員Uh Gyu-jin表示:“如果說游戲對英偉達的增長作出了貢獻,因為高性能GPU被用來驅動現有的高端游戲,那么最近數據中心銷售的增長是急劇的,因為GPU已被用作數據中心加速器。”隨著超大型人工智能的需求增加,英偉達的銷售額和營業利潤有望獲得大幅增長。
投資者也注意到了這一點,并將英偉達列為ChatGPT熱潮的最大受益者。花旗集團分析師Atif Malik預估,ChatGPT可能會在未來12個月內為英偉達帶來30億美元至110億美元的銷售額。
事實上,從今年開始,英偉達在數據中心領域的銷售額有望首次超過游戲,占比達到57%。隨著人工智能概念被引入數據中心,其銷售額占比將大幅提升。特別是在應用人工智能深度學習技術時,收集和分析大規模信息的云服務必須得到有效管理。因此,英偉達GPU安裝在需要深度學習技術的地方越來越多,例如,提供云服務的亞馬遜、微軟、IBM和阿里巴巴。
英特爾和AMD等其他半導體公司也生產用于服務器的AI芯片,但沒有英偉達AI芯片并行處理技術(CUDA)的優勢,它們的市場份額僅個位數;而蘋果、高通等都專注于為智能手機、平板電腦和物聯網等邊緣設備開發AI芯片,因此英偉達有望在服務器用的AI芯片領域繼續占據主導地位。
HBM需求攀升利好三星、SK海力士
英偉達GPU搭載了包括高帶寬存儲器(HBM)在內的大量DRAM。三星電子、SK 海力士、美光等有望直接或間接受益于英偉達AI芯片需求的快速增長。因為AI半導體需要“HBM3”才能學習和推理,而 AI芯片僅用于推理需要“GDDR6”和“GDDR7”存儲器。
ChatGPT等AI聊天機器人執行大量計算的時候需要高性能和大容量內存的支持。隨著AI聊天機器人服務市場爆發,對內存的需求將會增加。三星電子和 SK 海力士一致認為,“ChatGPT 等AI聊天機器人服務中長期將對內存半導體市場產生積極影響。”
三星電子指出, HBM數據處理速度比DRAM快,為GPU和人工智能加速器提供數據的高性能高帶寬內存 (HBM) 的需求將會擴大。從長遠來看,隨著AI聊天機器人服務的擴展,對用于CPU的128GB 或更大容量的高性能 HBM 和高容量服務器 DRAM 的需求預計會增加。
SK海力士解釋說,從內存的角度來看,AI聊天機器人需要高性能的DRAM和高性能的計算存儲設備,可能加快市場重心轉向大容量服務器內存的時間。SK海力士提到,服務器內存從64GB遷移到128GB的速度可能更快。
HBM可以消除 CPU、GPU 和內存之間的性能差距造成的瓶頸,補充了現有 DRAM 的局限性,被認為是一種具有前景的下一代內存產品。CPU和GPU的性能每年都在大幅提升,但支撐它們的內存半導體性能卻一直相對滯后,HBM 作為替代方案應運而生。目前,通過與中央處理器 (CPU) 和圖形處理器 (GPU) 配對,可以明顯提高服務器性能的HBM訂單正在明顯增加。今年第一季度,HBM供應商三星電子、SK海力士相關業務咨詢呈指數級增長。特別是SK海力士,客戶的需求電話紛至沓來。一位業內人士透露,“目前,英偉達在大部分服務器 GPU產品中都使用 SK 海力士HBM3”。
HBM唯一缺點是價格高。HBM盡管性能出色,但平均售價至少比最高性能的 DRAM 高出三倍,因為生產過程復雜且需要高水平的工藝。HBM2價格是16Gb DRAM的兩倍多,SK海力士HBM3價格已飆升了五倍。從存儲半導體企業的角度來看,HBM是一個高附加值領域,供應量越大,利潤率就越高。
