AI手機(jī),活成產(chǎn)業(yè)“搖錢樹”
圖源:攝圖網(wǎng)
作者|解碼工作室 來源|解碼Decode(ID:kankeji001)
早幾年出現(xiàn)的折疊屏沒能拯救頹勢的手機(jī)市場,直接證據(jù)就是去年全球出貨量依舊拉胯,同比下滑3.2%至11.7億部,為近十年來最低。
好在Q4出現(xiàn)了些許回暖,全球和中國市場分別有8.5%和1.2%的同比增幅,尤其是后者,在連續(xù)同比下降10個季度后首次轉(zhuǎn)正。
很難說這其中沒有AI的功勞。
2023下半年起,以谷歌、三星、OPPO為代表的廠商將大模型內(nèi)置于智能手機(jī)中,完成從云端AI向終端AI的轉(zhuǎn)變,AI手機(jī)浪潮正式開啟。
IDC更是預(yù)測,2024年全球新一代AI手機(jī)出貨量將達(dá)1.7億部,占智能手機(jī)總出貨量的近15%。
于是,AI就成了比折疊屏更有效的“救命稻草”,但在產(chǎn)業(yè)鏈眼里,TA更像是一顆“搖錢樹”。
1
端側(cè)AI能省錢
高通曾在去年9月出過一份報(bào)告,標(biāo)題言簡意賅——混合AI是AI的未來。
這份報(bào)告的核心是高通借大模型云端推理的“宕機(jī)”現(xiàn)象,再次向市場強(qiáng)調(diào)終端和云端協(xié)同工作的混合AI才是真正的首選。
所謂混合AI,是在以云為中心的場景下,終端將根據(jù)自身能力,在可能的情況下從云端分擔(dān)AI工作負(fù)載;而在其他場景下,計(jì)算將主要以終端為中心,必要時向云端分流任務(wù)。
高通的邏輯是,類比傳統(tǒng)計(jì)算從大型主機(jī)和瘦客戶端演變?yōu)楫?dāng)前云端和PC、智能手機(jī)等邊緣終端相結(jié)合的模式,生成式AI也將形成云端和終端結(jié)合的形式。
但這份報(bào)告的真正意圖,是高通提出的兩個趨勢:
AI算力將由現(xiàn)在的云端集中部署逐漸轉(zhuǎn)變?yōu)樵贫伺c終端靈活分配;大模型將逐漸向終端滲透。
事實(shí)上,在高通拿出這份報(bào)告前,它的那些合作伙伴早就這么干了,而之所以跑的快,不僅是對未來趨勢的準(zhǔn)確預(yù)判,更重要的是省錢。
算法交易公司Deep Trading的創(chuàng)始人Yam Peleg曾算過一筆賬,8K版本的ChatGPT云端推理成本為0.0049美分/千token(128個A100 GPU)。以全球1.8億日活躍用戶、每人每天100千token推理需求測算,ChatGPT4在云端進(jìn)行推理的成本約為88.2萬美元/天。
如果換到用戶量更大的智能手機(jī)上呢?
按照vivo副總裁周圍公布的數(shù)據(jù),vivo大模型單次對話成本約為0.012-0.015元/次,當(dāng)前vivo全國用戶數(shù)約為3億。以2.5億日活用戶(假設(shè)的未來滲透率天花板)、每人每天10次對話需求測算,vivo大模型每天云端推理的成本就要3000萬-3750萬人民幣。
假設(shè)以50%分流率計(jì)算,將一半的推理分流至端側(cè)進(jìn)行,那么vivo每年將節(jié)約55-68億人民幣的云端運(yùn)算成本。
看在錢的份上,不搞端側(cè)AI都不行。只是,手機(jī)廠商雖然目標(biāo)高度一致,但在解決大模型手機(jī)內(nèi)存瓶頸的問題上,卻出現(xiàn)了分歧。
2
三條路線
眾所周知,大型語言模型的泛化能力及通用性取決于其參數(shù)量,如GPT-4擁有16個專家模型,共包含1.8萬億個參數(shù)。大多數(shù)大模型都在具有強(qiáng)大服務(wù)器硬件支持的云端運(yùn)營,若直接部署于終端設(shè)備,則需要設(shè)備擁有足夠大的內(nèi)存。
哪怕參數(shù)量較小的主流AI大模型也有70億或130億參數(shù),分別需要約14GB和20GB的內(nèi)存。例如有70億參數(shù)的小型LLaMA,其FP16版本大小為14GB,遠(yuǎn)超當(dāng)前手機(jī)的內(nèi)存承載能力。
為了解決這個難題,當(dāng)前主要有三種技術(shù)路線:一是直接拔高終端內(nèi)存,二是壓縮大模型體積,三是優(yōu)化內(nèi)存調(diào)用邏輯。
三條路線分別對應(yīng)著三個陣營,以微軟、聯(lián)想、OPPO為代表的勢力致力于大模型壓縮路線,蘋果擬通過優(yōu)化閃存交互和內(nèi)存管理邏輯來解決內(nèi)存壁壘,希望通過直接拔高終端內(nèi)存以突破瓶頸的3DDram技術(shù),代表則是內(nèi)存廠商。
首先來看規(guī)?;疃嗟拇竽P蛪嚎s,主要包括量化、剪枝及蒸餾等幾種方案。
大模型壓縮翻譯過來其實(shí)就是在不影響性能的前提下縮減模型的資源占用。比如通過INT4量化技術(shù)支持,AquilaChat2-34B僅需接近7B級別模型的GPU資源消耗,即可提供超過Llama2-70B模型的性能,同時內(nèi)存占用大幅降低70%,而綜合性能指標(biāo)僅降低了0.7%。
再比如屬于剪枝方案的微軟SliceGPT技術(shù),實(shí)驗(yàn)數(shù)據(jù)顯示,該技術(shù)可以為LLAMA-2 70B、OPT 66B和Phi-2模型去除多達(dá)25%的模型參數(shù)(包括嵌入),同時分別保持密集模型99%、99%和90%的零樣本任務(wù)性能。
其次是優(yōu)化內(nèi)存管理。如前文所分析,70億參數(shù)的模型僅加載參數(shù)就需要超過14GB的內(nèi)存,這超出了大多數(shù)智能手機(jī)的能力。
蘋果提出將模型參數(shù)存儲在至少比DRAM大一個數(shù)量級的閃存上,然后在推理過程中直接且巧妙地從閃存中加載所需的參數(shù)。
具體而言,蘋果構(gòu)建了一個以閃存為基礎(chǔ)的推理成本模型,并使用窗口化(Windowing)以及行列捆綁(Row-Column Bundling)兩項(xiàng)關(guān)鍵技術(shù),來最小化數(shù)據(jù)傳輸并最大化閃存吞吐量。
更具體的技術(shù)實(shí)現(xiàn)步驟這里就不做贅述,總之蘋果的閃存方法實(shí)現(xiàn)了可以運(yùn)行比設(shè)備DRAM容量大兩倍的模型,并在CPU和GPU上分別比傳統(tǒng)方法提速4-5倍和20-25倍。
美光CEO此前的說法是,AI手機(jī)的內(nèi)存容量預(yù)計(jì)將比當(dāng)今非AI旗艦手機(jī)高出50%到100%。除了壓縮和優(yōu)化,還有一個看似是笨辦法的辦法就是直接拔高終端內(nèi)存,也就是3D Dram(垂直存儲器)技術(shù)。
3D Dram是一種利用垂直堆疊方式,將存儲單元置于一個二維陣列中,通過垂直疊加顯著提高容量的技術(shù)。相當(dāng)于蓋起了復(fù)式,降低平面面積占用的同時,增加單位面積內(nèi)的存儲容量,從而實(shí)現(xiàn)容量的最大化。
根據(jù)Neo Semiconductor的估計(jì),3D X-DRAM技術(shù)可以跨230層實(shí)現(xiàn) 128Gb的密度,是當(dāng)前DRAM密度的八倍。NEO提出每十年容量增加8倍的目標(biāo),目標(biāo)是在2030年至2035年間實(shí)現(xiàn)1Tb容量,比目前DRAM核心容量增加64倍。
3
誰能受益?
雖然路線不同,但在可行性的前提,各個陣營都能達(dá)到一定程度上的預(yù)期效果。
比如芯片廠,無論是高通還是聯(lián)發(fā)科,都在推行端側(cè)AI下的大模型壓縮,目的自然是為了讓下一代芯片能夠支撐起手機(jī)廠商嵌入大模型的需求。只要完成了這個需求,它們就能是率先吃到紅利的一方。
復(fù)盤4G到5G的迭代過程,高通就是靠著特殊供需關(guān)系,直接將手機(jī)廠商的芯片采購成本翻了一倍。
以三星為例,GalaxyS20 Ultra(12G+256G)物料成本中,驍龍865 SoC的整體成本超過150美元,比2019年上半年不包含X50基帶的驍龍855 4G移動平臺貴1倍左右。
芯片廠對手機(jī)廠商又有絕對的議價(jià)權(quán),供需失衡下價(jià)格掌控能力更強(qiáng)的一方,是很樂意把支持端側(cè)AI的SoC價(jià)格打上去的。
在SoC之外,還有一個零部件能在這波AI升級中受益,但可能很多人想不到。
在三星S24系列的拆機(jī)結(jié)果中,人們發(fā)現(xiàn)不僅石墨散熱片有額外增加,連平均散熱板面積也被提升了,算下來S24、S24+、S24 Ultra分別大了1.5、1.6、1.9倍。
最后測算下來,S24 Ultra里增加的散熱材料,相較上一代5G手機(jī)每部多出來11元。若考慮高性能、高價(jià)格的石墨烯滲透率提高帶來的價(jià)值增量,還能再增加3塊錢。
還有一個零部件,是類似SoC的內(nèi)存。
根據(jù)前文所述,在大模型體積壓縮、優(yōu)化內(nèi)存調(diào)用邏輯、3DDram技術(shù)發(fā)展等三路線共同作用下,當(dāng)前16/24GB內(nèi)存已具備運(yùn)行端側(cè)大模型的條件,且未來內(nèi)存容量仍有跨越式提升的空間,容量已不再是桎梏,提升帶寬以適應(yīng)復(fù)雜AI任務(wù)是更為迫切的需求。
JEDEC固態(tài)技術(shù)協(xié)會已經(jīng)正式完成了LPDDR 6內(nèi)存標(biāo)準(zhǔn)的定稿,預(yù)計(jì)將會在2024年第三季度正式發(fā)布,目前LPDDR5X內(nèi)存的主流帶寬為8533Mbps,而LPDDR6帶寬可以達(dá)到12.8Gbps,比LPDDR5X高出了54%,LPDDR6X更是擁有17Gbps的帶寬。
受益于AI手機(jī)對高帶寬內(nèi)存的需求,預(yù)計(jì)LPDDR5/LPDDR5X/LPDDR6將持續(xù)供不應(yīng)求。三星和海力士申請LPDDR6 RAM認(rèn)證后,將會率先量產(chǎn)LPDDR6內(nèi)存,同芯片廠一樣,供需關(guān)系也決定了LPDDR6的漲價(jià)。
4
尾聲
作為下游的手機(jī)廠,在這場技術(shù)迭代革命里是要爭取主動的。
AI催生的換機(jī)潮確實(shí)會帶來一波量價(jià)齊升,但參考上一輪迭代,僅靠組裝而生的手機(jī)廠商無法獲得大規(guī)模溢利。
也就是說,想要吃到更大的紅利,尤其在軟硬件成本高企的情況下,就必須具備自研能力,比如最重要的大模型和芯片。
當(dāng)然在今天的環(huán)境下,高企的大模型訓(xùn)練成本和供需錯配的高性能AI推理芯片,都對手機(jī)廠商提出了嚴(yán)峻挑戰(zhàn)。但同時具備這兩項(xiàng)自研能力的,就有了成本可控及供應(yīng)穩(wěn)定的一體化優(yōu)勢。
而其它不具備或不完全具備的廠商,也不是一定會被淘汰。拿捏不了上游,可以轉(zhuǎn)身去拿捏下游。
智能手機(jī)的下游,就是移動互聯(lián)網(wǎng)了。
高度智能化的AI手機(jī)應(yīng)擺脫臃腫、繁多的APP,垂直整合端側(cè)應(yīng)用,深層次聯(lián)通各個獨(dú)立的孤島,用戶一個指令可以調(diào)動多個APP自動解決需求,提供一站式服務(wù)。
因此,高度智能化的手機(jī)必須由其自身來集成各類數(shù)據(jù)、權(quán)限、應(yīng)用,而單個應(yīng)用無法這一點(diǎn),所以天然占據(jù)了各項(xiàng)功能入口的手機(jī)廠商,就有了取代部分App開發(fā)商的可能,進(jìn)一步瓜分流量及變現(xiàn)。
以智能修圖、錄音摘要功能為例,運(yùn)行端側(cè)大模型的AI手機(jī)將部分或全部取代孤立的修圖類(如美圖秀秀)、錄音類App(如訊飛聽見),此類功能將集成于手機(jī)的操作系統(tǒng)中,完全內(nèi)置于攝像、通話功能中。
對上述App來說,這一切已經(jīng)發(fā)生了,而未來還會有更多App被集成、替代。
編者按:本文轉(zhuǎn)載自微信公眾號:解碼Decode(ID:kankeji001),作者:解碼工作室
前瞻經(jīng)濟(jì)學(xué)人
專注于中國各行業(yè)市場分析、未來發(fā)展趨勢等。掃一掃立即關(guān)注。