AI PC、AI手機密集發布,生成式AI浪潮向邊緣側延伸
AIGC與終端側設備相結合,可以更加有效地突出用戶使用個性、降低運行成本、加快響應速度,對于生成式AI的商業落地有著重要促進作用。近來,聯想、小米等智能終端廠商紛紛加大了針對邊緣AI領域的開發力度,生成式AI浪潮正在從云端向邊緣與終端側延伸。
AI PC規模出貨元年即將到來
10月24日,聯想舉辦第九屆聯想創新科技大會,除了宣布與微軟、NVIDIA、英特爾、AMD、高通等企業在智能設備、基礎設施和解決方案領域持續深化合作之外,還展示了旗下首款AI PC(人工智能電腦)。據了解,這種本地運行的小型化AI模型,可以幫助用戶實現修圖、智能剪輯、撰寫文檔等功能,甚至根據用戶思維模式發現發任務并自主解決。
對此,聯想提出,除“公共大模型”外,人們還應發展企業端的“企業級私域大模型”和用戶端的“個人大模型”,以解決“公共大模型”存在的數據安全和隱私泄露風險、難以個性化定制、通用訓練推理成本高等問題。其中,個人大模型對應AI PC等邊緣AI產品,通過裁剪和量化等方式,刪減通用大模型中與個人使用無關的結構,實現把高性能的小模型融入終端設備,讓每個用戶擁有自己的個性化大模型。聯想CEO楊元慶表示,考慮到企業保護商業機密的需求,本地部署的未來企業級大模型將與公有云部署的公共大模型呈現混合部署的形態。
手機廠商向邊緣AI延伸的力度也很大。小米日前宣布獲得高通驍龍8 Gen 3首發權,搭載驍龍8 Gen 3處理器的小米14將大幅提升在本地支持大模型的能力。同時,小米也將AI大模型植入澎湃系統,支持AI妙畫、AI搜圖、AI寫真、AI擴圖等功能,進一步提升用戶的使用體驗。而在11月1日舉行的2023 vivo開發者大會上,vivo發布自研藍心大模型,包括十億、百億、千億三個參數量級共5款產品,全面覆蓋核心場景。而此前,華為、OPPO、榮耀等頭部手機廠商也都在積極布局大模型的開發。
手機、PC甚至汽車等終端設備之上越來越多地開始嵌入AI模型,已經成為一個發展的大趨勢。群智咨詢預測,2024年伴隨著AI CPU 與Windows 12的發布,將成為AI PC規模性出貨的元年。而打造“輕量化”,適用于“端側”的AI模型也成為手機廠商當前發展的重點。
加速AI模型商用落地
AI模型融入終端設備固然有利于改善用戶體驗,提振消費電子市場,但是其對促進AI模型的應用落地意義可能更大。小米AI實現室大模型團隊負責人欒劍介紹,之所以AI大模型能夠受到人們持續廣泛的關注,是因為它有效推動了人們在信息內容上的大規模生產。而這又得益于人們通過大數據、大任務、大參數上對AI模型的訓練。下一步如何實現大模型的輕量化,使AI模型也能在終端設備上有效運行,將成為人們開發的重點。
實際上,生成式AI同智能終端結合,具備許多優勢:一是個人信息無需上傳云端,可以降低隱私泄露和數據安全風險;二是AI模型接入本地數據庫和個人信息,有望實現通用基礎AI大模型向個性化定制小模型轉變,提供更適合的用戶服務;三是通過壓縮AI大模型和終端軟硬件適配,邊緣AI可能降低運行成本、加快響應速度和提高服務效率。
以往人們在使用AI設備時經常會詬病其不夠智能——“我都使用快大半年了,可我每次用完關閉,再重新啟動,它就好像是一個新朋友,對于上次的互動完全沒有記憶。”這其實正是云端大模型的一種通病。因為它不太可能為每一位用戶存儲大量信息。在云端存儲大量用戶信息,并且動態加載這些信息,在功能上是一個巨大挑戰。但是,把這項工作下放到端側就會變得相對簡單。
也就是說,生成式AI由云端延伸至邊緣側,使AI技術與PC、手機等終端硬件設備緊密結合,將成為AI大模型應用落地,商業化發展的大趨勢。它可以改善或者解決AI發展中面臨的個性化定制、安全和隱私風險、算力成本高昂、性能表現不及預期、交互能力弱等阻礙,加速AI模型的商業化應用進程。
終端芯片:CPU+GPU+NPU集成化
AI大模型輕量化、本地化過程也離不開芯片技術的支撐。實際上,高通、英特爾、英偉達、AMD等近來都在紛紛加碼推出針對性的產品。驍龍X Elite作為高通首款推出的“驍龍X系列平臺”PC處理器,集成專用神經處理單元(NPU),可支持百億參數級大型語言模型。驍龍8 Gen 3平臺將支持軟、Meta、OpenAI、百度等20種以上AI大模型使用。英特爾最新Meteor Lake處理器,首次在PC處理器中內置NPU,并將NPU與處理器內計算引擎的AI功能結合,提升PC運行AI功能的能效。英偉達和AMD也計劃2025年推出Arm架構的PC芯片,進軍邊緣端AI。
高通技術公司高級副總裁兼計算與游戲業務總經理Kedar Kondap強調大模型本地化的優勢。“隨著時間推移,PC將會變得高度智能化,和用戶之間建立起情感紐帶,PC會主動理解用戶的想法,并在滿足需求的同時對用戶隱私提供足夠保護。而且PC將具有即時性,能夠立即回答用戶的問題,提供想要的答案。如果這些需求都要傳達到云端去解決,會增加很多復雜性,在類似用例中,終端側AI處理具備更多優勢。”
而為了滿足大模型從云端向邊緣與終端延伸所需要的更大也更加復雜的AI算力,CPU+GPU+NPU的集成化將成為處理器未來發展的方向。這又使得Chiplet技術受到更高度重視。在談到這一趨勢時,中興微高速互聯總工程師吳楓表示,一方面,通過Die to Die互聯和Fabric互聯網絡,能夠將更多算力單元高密度、高效率、低功耗地連接在一起,從而實現超大規模計算。另一方面,通過將CPU、GPU、NPU高速連接在同一個系統中,實現芯片級異構,可以極大提高異構核之間的傳輸速率,降低數據訪問功耗,提高數據的處理速度,降低存儲訪問功耗,滿足大模型的參數需求。
原粒半導體聯合創始人原鋼則強調了Chiplet如何滿足當下算力需求的技術發展方向。“針對邊緣側單任務的大模型場景,可以把模型切分到不同Chiplet進行并行計算,通過在預訓練模型的基礎上進行額外訓練,使其適應特定任務。大模型的邊緣端微調,可使用本地存儲的私有數據,或者本地新采集的數據。“SoC主控+AI Chiplet”組合可有效復用芯片主控,顯著降低成本,快速滿足各類規格需求。這將是未來該領域的重要發展方向。”
