文|半導體產業縱橫
距離AI PC推出的概念炒作已經一年有余了,但似乎“雷聲大,雨點小”。市場和消費者似乎也并不買賬。AI PC真的“AI”嗎?什么才是真·AI PC?看看真正的AI大廠給的答案吧。
AI PC概念的興起
AI PC是Artificial Intelligence Personal Computer的簡稱,最早由英特爾于2023年9月提出,短短時間內獲得業內廣泛青睞,盡管發展時間不長,但業內普遍認為,AI PC將會是PC行業的轉折點。而Canalys 對 AI PC 的定義為配備專用 AI 芯片組或模塊(如 NPU)的臺式機和筆記本電腦,用于處理 AI 工作負載。
2024年被業界公認為AI PC應用的元年,各大企業紛紛推出了自己的AI電腦。
3月初,蘋果發布AI PC MacBook Air。3月18日,榮耀發布公司首款AI PC MagicBook Pro 16,緊接著,AMD董事會主席及CEO蘇姿豐宣布AMD銳龍8040系列AI PC處理器已經實現出貨。3月22日,微軟宣布推出Surface AI PC。4月11日,華為發布新款MateBook X Pro筆記本電腦,首次應用華為盤古大模型。
某種程度上來說,強綁定AI概念的PC業確實有了起色。2024年第四季度,AI PC出貨量達到1540萬臺,占季度PC總出貨量的23%。2024年全年,AI PC占PC總出貨量的17%。其中,蘋果以54%的市場份額領跑,聯想和惠普各占12%。受Windows 10服務停止帶來的換機潮,AI PC的市場滲透率將在2025年繼續提升。但這其中究竟有多少AI含量?
AI PC:雷聲大雨點小
2024年2月23日,聯想CEO楊元慶在最新財報發布后表示,預計2024年全球PC出貨量將同比增長約5%。盡管面臨一些挑戰,但他堅信人工智能將是推動聯想業務增長和重塑的關鍵因素。
然而,楊元慶也指出,目前AI PC市場還處于初級階段,盡管“雷聲大”,但實際銷售量和用戶接受度還相對較低。他認為,這主要是由于技術成熟度、用戶教育以及市場接受度等方面的原因。
對于已經發布的 AI PC 產品,不少人并不認可,核心在于這些 AI PC 中“AI”與“PC”(硬件)基本是分離的。以目前 PC 上最大的 AI 用例——微軟 Copilot 來說,在英特爾與微軟對AI PC的聯合定義中,強調必須配備混合架構芯片、Copilot 及其對應的物理按鍵。但事實是,所有升級到最新 Windows 11 版本的 PC 都能使用 Copilot,因為 Copilot 只依賴于微軟 Azure 云端算力,與 PC 硬件本身無關。
而作為掌握核心科技的AI芯片老大,英偉達根本就不理微軟的定義,試問又有誰能比英偉達更有AI 的話語權?而英偉達很早就開始布局 AI 領域的生態,自1993年成立以來,一直是加速計算領域的先驅,擁有最廣泛 CUDA 生態應用的 AI 生產力,帶有 N 卡獨顯的高性能PC,不那么依賴于 OEM 的適配,不但可以運行輕量極的 AI 工具,比如本地的大語言模型,簡單的 Stable Diffusion繪圖,甚至可以玩中等規模的 AI 模型,實際使用的生成速度,也比普通核顯玩AI快得多。
之所以現在AI PC受到市場冷遇,主要有以下幾點原因:
1、現階段AI PC搭載的NPU算力不足
Intel NPU的AI性能最高為48TOPS,Intel Xe 核顯大約28TOPS。搭載核顯的 AI PC 算力目前在 10 - 45 TOPS 這個量級,而搭載 GeForce RTX 40 系列 GPU 的設備,涵蓋了筆記本電腦和臺式主機,能提供 200 - 1400 TOPS 不同級別的產品方案選擇。
而今年發布的RTX 5090顯卡采用了NVIDIA的Blackwell架構,這使得它在性能上有了質的飛躍。據NVIDIA官方介紹,RTX 5090的AI算力達到了4000 TOPS,是上一代Ada Lovelace架構的三倍。
NPU的AI算力與GPU相比可謂是弟中弟。
事實上主流的那些常見AI應用方面,本地上哪怕單塊RTX 4080、4090也不見得多充沛,可想而知NPU這點算力也確實沒有太多作用。
2、NPU不帶DRAM,無法單獨支撐大模型運行
目前的AI大模型從硬件需求來說都是“DRAM 的大模型”。NPU天生不帶DRAM,依賴系統RAM。也就是運行大模型必須另配64G以上的DRAM以配合NPU——都加碼到這份上了,這為啥不直接用APU/GPU跑呢,都要加錢了,讓誰跑不是跑?
而且APU和GPU跑AI大模型是開源適配好的,可謂是開箱即用。
3、NPU適配應用少,應用范圍窄
理論上,現在NPU上已經能跑LLM大語言模型、stable diffusion圖片生成、常見CV神經網絡的推理(包括Resnet、yolo)、whisper語音轉文字。基本上所有的AI推理負載,本質上就是矩陣運算,都能夠通過NPU來實現低功耗運行。
但實際上現在用戶買到的Windows筆記本電腦,能夠調用NPU的應用場景是Windows Studio Effect里面的背景虛化、剪映摳圖。應用范圍實在是太窄了。NPU支持的本地程序截止目前非常少。
總體來說,目前NPU實際能用的功能都是一些花拳繡腿。這一輪AI真正火起來,還是因為大家看到ChatGPT這樣的聊天機器人能夠解決很多問題。所以如果真的要讓NPU發揮作用,還是需要能運行LLM大語言模型,而顯然當前AI PC上的NPU無法滿足需求。
NPU還是GPU不重要,但本地化的AI很需要。而目前來看,是不是AI PC并不重要,有沒有搭載NVIDIA GPU比較重要。
三大廠的“真·AI PC”
此前雖然一些廠商宣傳推出了AI PC產品。但實際上卻至少噱頭居多,只是搭載了NPU芯片,而沒有真正的本地大模型運行。既不能訓練、也不能推理。
AI PC 的概念被廣泛宣傳在筆記本電腦上。然而,現在沒有任何一臺輕薄本,稱得上是高算力的 AI 專用計算設備PC,反倒是傳統的高性能游戲本,搭載強大 GPU 顯卡的臺式機,可以真的去提供真正的 AI生產力。
真·AI PC還是得看能開發高性能GPU的廠商,比如英偉達和AMD。
而就在今年年初CES上,AMD發布了AI Max 300Strix Halo。黃仁勛也發布了Project DIGITS。再加上此前蘋果公司的Mac Pro。這三個是本地部署大模型的利器。堪稱“桌面AI超級電腦”。
AMD發布的Strix Halo有兩種:消費級的Strix Halo---主要用于消費性能筆電(游戲本)和商用級的Strix Halo Pro---主要用于移動工作站。曝光的3DMark測試數據顯示,其旗艦型號Ryzen AI MAX+ 395有16個基于Zen 5架構的CPU核心,32線程;40個基于RDNA 3.5架構的GPU核心,即Radeon 8060S核顯;最高120W,是標準移動APU的3倍;支持四通道LPDDR5X內存,提供高達256 GB/s的帶寬。值得注意的是,集成的Radeon 8060S核顯性能竟達到前代Radeon 890M的三倍以上,甚至逼近RTX 4060獨顯水平。
英偉達將其發布的Project DIGITS稱之為“目前體積最小的AI超算”。Project DIGITS使用了一顆定制的“GB10”超級芯片,它在一個核心里融合了基于Blackwell架構的GPU,以及NVIDIA與聯發科、ARM三方合作研發的Grace CPU。資料顯示,其中的Blackwell GPU能夠提供1PFLOPS的FP4算力,同時Grace CPU則包含了10個Cortex-X925核心和10個Cortex-A725核心。在GPU和CPU之間,則是通過大型超算同款的NVLINK-C2C芯片到芯片互聯總線連接。
Project DIGITS還配備了一顆獨立的NVIDIA ConnectX互聯芯片,它可以讓“GB10”超級芯片內部的GPU兼容多種不同的互聯技術標準,其中包括NCCL、RDMA、GPUDirect等,從而使得這顆“大核顯”可以被各種開發軟件和AI應用直接訪問。
而蘋果則在2023年發布了M3系列芯片并配備了下一代 GPU,代表了蘋果芯片圖形架構史上最大的飛躍。不僅速度更快、能效更高,并且還引入了稱之為“動態緩存”的新技術,同時首次為 Mac 帶來了硬件加速光線追蹤和網格著色等新渲染功能。渲染速度現在比 M1 系列芯片快 2.5 倍。值得注意的是,全新的M3 系列芯片帶來最高128GB的統一的內存架構。蘋果稱,對高達 128GB 內存的支持解鎖了以前在筆記本電腦上無法實現的工作流程,例如人工智能開發人員使用具有數十億參數的更大的Transformer模型。去年蘋果有發布了M4 Pro芯片,性能號稱超越AI PC芯片。
而這三者都采用了一種叫做統一內存架構的技術。統一架構的好處,就是把以前內存和顯存(顯卡的內存)做了統一,這樣就減少了CPU和GPU通信時候,在內存和顯存之間數據通信時候的拷貝。此外,這一技術也能使電腦顯存更大,從而可以打破消費級顯卡在運行大模型時候顯存不足的困境。值得注意的是,統一內存設計不是英偉達首創,蘋果M1才是第一例。
Deepseek開啟桌面 AI 超級電腦之戰
近一段時間以來,DeepSeek線上算力的嚴重不足,帶火了大模型本地部署需求,三大廠的“真·AI PC”也都開始廠商部署DeepSeek。
而DeepSeek作為一款MoE模型對顯存要求高,對算力/內存帶寬要求相對低。這也給了這些通過統一內存技術而擁有大顯存的桌面AI超級電腦可乘之機。
之前有國外大佬用8臺M4 Pro Mac mini跑DeepSeek V3。同樣的,預計可以利用四臺Project DIGITS來部署DeepSeek V3,而且生成速度應該也會快很多。根據AMD自己的公布,strix halo架構APU可以部署70B的模型,比4090快2.2倍,功耗低87%。
有網友表示,“打算等halo筆記本上市之后把現在的筆記本換掉的,本地部署大模型確實有意思,再過幾年也許就可以本地部署671B的INT8或者FP8大模型了。除了大模型,RAM和CPU配置提高了,做其它事情也快。”
AI賽道,或許是國產廠商切入PC芯片領域的契機。當前許多廠商開始營銷各類AI一體機產品。相信如果國產廠商能推出更大統一內存,比如256G版本的國產“Project DIGITS”,也許會更受歡迎。
AI PC 的概念,是任人打扮的小姑娘。故事,其實各家有各家的講法。OEM 各大廠百花齊放,砸錢砸工程師做本地化AI應用,軟件有些能本地也能云,云服務可以接入國產模型做商業,可能是一快很好的蛋糕。
低延遲+隱私保護,或許是拉動類似GPT一類大語言模型,SD繪圖,聲音克隆,AI補幀,摳圖,重繪等本地化AI應用的一個點。
AI PC 的足夠強的邊緣算力 + 大內存(顯存)+優化到足夠高效的軟件,結合起來才能有望解決行業痛點,大批量落地 AI 終端。所以說,AI PC 其實也不完全是噱頭炒作,不管是更普惠的AI,更高能效的AI,還是更強大算力的AI,還是基于云和網絡更簡單好用的AI,都是有在進一步發展技術,摸索市場。