ChatGPT大火不僅將全球眼光吸往AI,更做了回半導體硬件的“賣水人”
用戶激增的ChatGPT,在互聯網領域也有著廣闊的應用前景。有“美版頭條”之稱的數字媒體公司BuzzFeed,在1月份就已宣布計劃用于協助內容創作,股價隨后也連續大漲;OpenAI的合作伙伴及投資方微軟,在2月7日推出的新的必應搜索引擎,引入了比ChatGPT更強大的OpenAI下一代大語言模型。
而隨著微軟將相關的技術用于搜索引擎,早已意識到可能威脅到他們核心業務的谷歌,也加快了相關技術的應用步伐。在微軟推出新必應搜索引擎和Edge瀏覽器之后一天,谷歌的競品Bard也在巴黎迎來了首秀,雖然被外界發現有問題給出了錯誤的答案,導致母公司Alphabet的市值在隨后兩個交易日蒸發超過2000億美元,但谷歌還是在推進Bard的研發及應用,最新的報道顯示,CEO皮查伊已請求員工參與測試。
除了谷歌和微軟,國內的相關廠商也在推進相關的人工智能聊天機器人的研發及應用。奇虎360的周鴻祎在與張朝陽的對話中,表示他覺得ChatGPT可能代表著在人工智能的發展歷史上可能是一場真正革命的開始,360不會放棄對這一技術的研究和跟蹤。
無論ChatGPT更廣泛的應用,還是多家巨頭推出類似的人工智能聊天機器人,處理數據和維持相關服務的運行,都需要大量的服務器,這也就給半導體的多個領域帶來了新的發展契機,尤其是GPU和DRAM這兩大領域。
AI 帶動算力新需求
根據太平洋證券介紹,人工智能三大要素主要包括數據,算法,以及算力。
由于機器學習中的監督學習和半監督學習都要用標注好的數據進行訓練,數據標注是人工智能產業的上游產業;算法方面,當前最具代表性的深度學習算法模型有深度神經網絡、循環神經網絡、卷積神經網絡。其中深度神經網絡和循環神經網絡是深度學習的基礎。
算力是算法和數據的基礎設施,算力大小決定了數據處理能力的強弱,芯片則是決定算力的硬件基礎。
其中,OpenAI帶動算力新需求。OpenAI的研發主要依托AIGC(利用人工智能技術來生成內容)技術。根據OpenAI近日發布的數據,自2012年以來人工智能訓練任務中使用的算力呈指數級增長,其增長速度為每3.5個月翻一倍。截止目前人們對算力的需求已增長了超過30萬倍,摩爾定律已然失效。
近年來,我國算力規模保持持續增長態勢,經信通院測算2021年我國計算設備算力總規模達到202EFlops,增速約50%,高于全球增速。
《新型數據中心發展三年行動計劃(2021-2023年)》強調到2023年底,全國數據中心機架規模年均增速保持在20%左右,平均利用率力爭提升到60%以上,總算力超過200EFLOPS,高性能算力占比達到10%。國家樞紐節點算力規模占比超過70%。此外,計劃還提出新型數據中心應具備高技術、高算力、高能效、高安全等特征。太平洋證券指出,“四高”已經成為未來數據中心的必備條件,而相應的服務器市場或將迎來較快增長。
GPU有望迎來新一輪需求高峰
在ChatGPT這一人工智能聊天機器人大火之后,就有外媒在報道中提到,英偉達被分析師和業內人士認為會是一大受益者。外媒在報道中稱,為了創建和維持ChatGPT所需的人工智能分析數據的龐大數據庫,開發者使用了10000個英偉達的GPU進行相關的訓練。而為了滿足當前服務器的需求,ChatGPT的開發商OpenAI已使用了約2.5萬個英偉達的GPU。
而隨著ChatGPT應用范圍的擴大,他們對英偉達GPU的需求也就還會增加,其他廠商研發相關的技術及應用,還將進一步拉升對GPU的需求。已有外媒預計,如果將當前的技術應用到每一次的谷歌搜索中,需要512,820臺A100 HGX服務器,將需要超過410萬個A100 GPU。
對英偉達來說,如果相關的應用拉升了對GPU的需求,就將推升他們的業績。在2023財年第一財季,也就是在截至去年5月1日的那一個財季實現82.88億美元的營收之后,他們的營收已連續兩個季度環比下滑,在消費電子產品需求不樂觀的情況下,ChatGPT等人工智能聊天機器人相關的需求,有望為他們帶來新的增長動力。
不過,也有外媒認為,ChatGPT等人工智能聊天機器人進行訓練和提供相關的服務對GPU需求的增加,全球可能再次面臨GPU短缺的挑戰,出現短缺的時間可能還會早于預期。
高帶寬存儲器需求已在增加
除了高性能GPU,ChatGPT等人工智能聊天機器人,也拉升了高帶寬存儲器(HBM)的需求。
韓國媒體在本周早些時候的報道中就表示,從今年年初開始,三星電子和SK海力士的高帶寬存儲器訂單就大幅增加,相關廠商已在要求SK海力士供貨。
與其他DRAM相比,HBM通過垂直連接多個DRAM,顯著提高了數據處理速度,與CPU和GPU協同工作,可以大幅提高服務器的學習和計算性能。但性能更出色的高帶寬存儲器,也有更高的價格,至少是DRAM的3倍。而在需求增加的情況下,SK海力士HBM3的價格,已增至高性能DRAM的5倍。
同英偉達和臺積電一樣,三星電子和SK海力士這兩大存儲芯片制造商,也面臨消費電子產品需求下滑的挑戰,SK海力士的營收在去年三季度和四季度是同比環比雙雙下滑,四季度更是出現了3.5萬億韓元的凈虧損,全年的凈利潤也降至2.4萬億韓元,同比下滑75%。三星電子存儲業務的營收,在去年三季度和四季度也是同比環比雙雙下滑,所在部門的營業利潤也是如此,也導致全年的營收和營業利潤下滑。
仍在增長的AI巨浪
從主要的工作流程來看,ChatGPT的分為訓練和推理,二者對于算力有著不同的需求。
相比于回答用戶問題的推理階段,ChatGPT的日常訓練對于GPU算力的要求更高。在訓練階段,ChatGPT需要反復地進行前向傳播和反向傳播操作,用來優化模型參數。
前向傳播是指從輸入數據開始,按照神經網絡的結構逐層計算,直到得到輸出結果的過程。具體到ChatGPT的訓練中,前向傳播是就根據當前的網絡參數和輸入文本,計算出每個單詞的概率分布。
反向傳播是指通過計算損失函數關于每個參數的梯度,從輸出結果開始向網絡輸入逐層傳播,更新神經網絡的權重和偏置值,提高網絡的準確率。
在ChatGPT的訓練過程中,前向傳播和反向傳播一般會以百萬次甚至上億次多次迭代執行,因此只有大量的、高算力的GPU集中運算,才能達到要求。公開數據顯示,GPT-3單次訓練成本就高達460萬美元。
根據中信證券研究部數據,此前GPT-3在訓練中使用了微軟專門建設的Al計算系統,由1萬枚英偉達GPU組成高性能網絡集群。
目前英偉達主流的AI芯片中,A100芯片單顆市場售價約為8萬元。而A100的升級版,最新的H100芯片單顆售價約為人民幣24萬元。這意味著,僅僅是采購芯片一項,ChatGPT就需要向英偉達支付10億元以上。
據Investing.com報道,GPT-3時代1萬枚的英偉達GPU,已經隨著ChatGPT升級到GPT-3.5,增至2.5 萬枚,且增長仍在繼續。隨著谷歌、百度以及更多的類ChatGPT項目入局,以ChatGPT為代表的AI算力和GPU相關需求,將會繼續提高。
