Meta每每落后對手竟是因為一枚芯片!GPU才是AI模型的“神”
ChatGPT大戰,Meta為何遲遲沒有動作?
就在今天,路透社記者挖出了一個大瓜,原因讓人瞠目結舌——相比谷歌、微軟等大廠,Meta跑AI時,用的竟然是CPU!
很難想象,在深度學習幾乎占機器學習半壁江山的時代,一個科技巨頭竟然能用CPU堅持這么久。雖然他們也曾嘗試過自研AI芯片,但最終遭遇滑鐵盧。
現在,ChatGPT引爆的生成式AI大戰打得昏天黑地,這就更加劇了Meta的產能緊縮。
用CPU訓練AI,Meta怎么想的?
Meta遲遲不肯接受用GPU的原因,令人匪夷所思。
GPU芯片非常適合AI處理,因為它們可以同時執行大量任務,從而減少處理數十億條數據所需的時間。然而,GPU 也比其他芯片更昂貴,英偉達控制著80%的市場份額,并在配套軟件上,也保持著絕對的領先地位。
直到去年,Meta在處理AI工作負載時,主要使用的還是CPU。CPU是計算機的主力芯片,幾十年來數據中心用的也是CPU,但它在AI工作上表現并不佳。
據悉,Meta還曾自研芯片,在內部設計的定制芯片上進行推理。但在2021年,Meta還是失望地發現,比起GPU,這種雙管齊下的方法速度更慢、效率更低。而且GPU在運行不同類型的模型上,遠比Meta的芯片更靈活。
而且,小扎決定All In元宇宙這一舉措,也直接榨干了Meta的算力。不管是AI的部署,還是威脅的應對上,都遭到了極大的削弱。
這些失誤,引起了前Meta董事會成員Peter Thiel的注意,隨后,他于2022年初辭職。
據內部人士透露,在離開前的一次董事會會議上,Thiel告訴小扎和高管們,他們對Meta的社交媒體業務太自滿,并且過分關注元宇宙了,這讓公司很容易被TikTok的挑戰所撼動。
AI為什么使用GPU而不是CPU?
隨著人工智能技術的快速發展,AI越來越多地使用GPU(圖形處理器)來加速計算,而不是傳統的CPU(中央處理器)。那么為什么AI使用GPU而不是CPU呢?
1、GPU的結構
GPU是專門用于并行處理的設備,具備大量的核心,可以同時處理數百個線程,而CPU則一般只有幾個核心,每秒能夠處理的線程數量較少。這就使得GPU比CPU更加適合于并行計算,使得訓練深度學習模型更高效。
舉個例子:如果你需要計算一個高清電影的每一幀畫面,CPU計算需要循環處理每個像素點,因為每個像素點都是單獨的。每個像素點計算需要幾個步驟,但是循環重復多少次,一個像素點的計算都是獨立的。但是,使用GPU可并行化處理每一個像素,這樣相當于在一秒鐘內同時處理數百個像素點,大大節省了時間。這就是GPU的并行處理能力的優越性。
此外,GPU還擁有高速緩存和顯存,而且顯存的容量比CPU要大得多,可以同時存儲大量的數據。AI訓練需要處理大量的矩陣和向量運算,這就需要大量的數據存儲和高速訪問,而GPU的顯存就能很好地滿足這個需求。
2、AI的特點
AI的訓練需要處理大量的數據,具有計算密集型特點,因此需要使用高性能的計算設備。另外,AI的模型越來越復雜,需要更多的計算資源才能完成訓練。而GPU的高性能和并行計算能力,正好解決了這個問題。
而CPU是為了兼容處理各種任務所設計的,因此具有處理多種語言和控制任務的優勢,對于AI訓練的計算密集型任務相對較弱。這就導致使用CPU來訓練AI需要更長的時間,并且更難以滿足計算資源的需求。
此外,隨著GPU技術的發展,GPU價格越來越實惠,越來越多的公司和個人都選擇使用GPU來訓練他們的AI模型。有些GPU甚至是搶占市場,一發布網即被購買一空。
綜上所述,AI使用GPU而非CPU是因為GPU具有并行處理、高性能以及更大程序的數據存儲空間等優越性能,能更好地滿足AI計算的要求。對于AI來說,選擇GPU訓練和應用,能大幅提高AI算法的效率和性能,從而更好地應用到各個領域中。
搭上人工智能的快車,GPU未來取代CPU?
AI人工智能、虛擬現實與自動駕駛等技術,近年來引起了很高的市場關注,成為當下科技領域和投資領域最為火熱的話題。特別是以深度學習為首的AI應用,因為AlphaGo在人機對戰中的大獲全勝,更是在全世界吹起一股AI風潮。
隨著科學技術的發展,GPU早已不是計算機當中最為基礎的“搬運工”,因為擅長大規模并發計算,所以GPU除了圖像處理,也越來越多地參與到計算當中來,在人工智能、金融學、密碼學、云服務等領域開始發揮越來越重要的作用。尤其是人工智能產業中,甚至成為行業內公認的“利器”之一。
GPU為何在AI應用當中嶄露頭角?楊旭東解釋說,除了機器學習的幫忙,深度學習的類神經演算法也在人工智能應用當中發揮著重要的作用。深度學習當中有一種技術叫“卷積神經網絡CNN”,這種網絡在數學上是許多卷積運算和矩陣運算的組合,恰恰和GPU本來能做的矩陣運算十分相似,因此深度學習就可以用GPU進行加速。
從2011年人工智能研究人員首次使用GPU為深度學習加速之后,GPU就開始在人工智能領域發揮巨大作用,這也讓GPU本身有了跨越式的發展。十年時間內,不僅在性能上提升了20多倍,市場規模也得到了大幅提升。有機構預測,到2027年,全球GPU市場規模有望突破2000億美元,從2020年到2027年,復合增長率有望高達33%。
因此有觀點認為,按照現在的發展速率,因為CPU處理器已經出現了性能過剩等問題,若干年以后,GPU有望取代CPU。而在2017年的某場會議當中,英偉達(NVIDIA)CEO黃仁勛也曾公開表示,摩爾定律已經失效,GPU最終會取代CPU。
摩爾定律是由英特爾創始人之一戈登?摩爾所提出,其主要內容為:集成電路(芯片)上可容納的晶體管數目,約每隔18至24個月便會增加一倍,性能也將提升一倍。
但近年來,隨著以智能手機處理器性能的過剩以及性能提升的放緩,摩爾定律開始受到越來越多的質疑。
“GPU很難取代CPU,甚至在未來很長一段時間都無法實現。”楊旭東對這樣的觀點給予了否認。他解釋說,這是因為從設計邏輯上來看,兩者就有著根本的區別,CPU要統籌控制整個系統,各種復雜的指令都要它來執行,GPU如果也要這樣做,自身就會變得復雜起來,連本職工作也無法完成了,所以GPU是無法取代CPU的。
“目前主流CPU晶體管數量在10億左右,而頂級GPU晶體管數量已經達到了100億甚至更多,所以CPU做不了GPU的事情,GPU也完成不了CPU的工作?!钡珬钚駯|強調,未來隨著制造技術進步和芯片的縮小,CPU和GPU架構之間將得到很好的融合。也就是說,CPU進一步強化處理數據模塊的能力,GPU也可以承擔更復雜的指令,最終促進計算機性能的大幅提升。
