2025年,“大模型價格戰(zhàn)”不怕虧錢了?
(圖片來源:攝圖網(wǎng))
作者|江心白 來源|消費最前線(ID:xiaofeizqx)
過去一年,大模型作為科技圈頂流,從誕生到落地的發(fā)展過程都極其迅速,開始應(yīng)用后也不出意外地打起了互聯(lián)網(wǎng)最擅長的價格戰(zhàn)。據(jù)不完全統(tǒng)計,參與大模型價格戰(zhàn)的企業(yè)包括字節(jié)跳動、阿里、百度、騰訊、科大訊飛……
2024年年末,阿里再度宣布大模型降價,甚至降價幅度超過了80%。
坦白來說,起初的大模型價格戰(zhàn)的確在短時間里為企業(yè)創(chuàng)造了不少流量,百度在去年8月份就曾透露,百度文心大模型5月API日均調(diào)用次數(shù)是2億,8月增長到了6億次;5月日均Token消耗量是2500億,8月增長到了1萬億。
字節(jié)跳動的豆包在7月份的日均Token用量也超過5000億,相比5月,平均日均Token使用量增長了22倍。但與所有行業(yè)一樣,價格戰(zhàn)持續(xù)太久必定回頭反噬企業(yè)的利潤,數(shù)據(jù)顯示,去年5月份之前,國內(nèi)大模型推理算力毛利率高于60%,5月各大廠接連降價后,推理算力毛利率跌至負數(shù)。
這本是一個可怕的數(shù)字,但不知為何2025年,大模型的價格戰(zhàn)又打響一炮。
“價格戰(zhàn)”的底氣又上升了一點
新的一年里,大模型價格戰(zhàn)的激烈程度有增無減,除阿里之外,字節(jié)跳動、月之暗面也紛紛加入新一輪降價大潮中。2025年,一度花錢如流水,虧損到生死不明的大模型企業(yè)又打得起價格戰(zhàn)了嗎?
首先,可以肯定大模型企業(yè)在現(xiàn)實落地、融資盈利等方面迎來一些可觀的轉(zhuǎn)折。從去年下半年開始,國內(nèi)大模型落地版圖基本有了模糊的輪廓,信息處理、客服銷售、硬件終端、AI工具、學習教育……共同拼出大模型一個光明的未來。
2024年1至11月,大模型相關(guān)中標項目的盤點結(jié)果顯示,國內(nèi)大模型中標項目共728個,中標總金額為17.1億元,分別是2023年全年數(shù)據(jù)的3.6倍、2.6倍。受此影響,大模型企業(yè)在這方面也開始產(chǎn)生收入。
百度數(shù)據(jù)顯示,去年第三季度,百度智能云營收達49億元,同比增長11%,AI相關(guān)收入占比持續(xù)提升至超11%。無獨有偶,阿里云季度營收增長至265.49億元人民幣,同比增長6%。其中,AI相關(guān)產(chǎn)品收入實現(xiàn)三位數(shù)增長。
其次,大模型領(lǐng)域在經(jīng)歷兩年的融資下滑期后,終于在2024年有所回溫。數(shù)據(jù)顯示,2024年前九個月,AI領(lǐng)域共完成融資金額371.5億元,相比2023年同期翻了1倍多。總之,在應(yīng)用落地后實現(xiàn)小規(guī)模業(yè)績營收、資本重新眷顧后,有錢是大模型賽道繼續(xù)價格戰(zhàn)的底氣。
但當前大模型企業(yè)的盈利能力真的可以撐起一場場無序而混亂的價格戰(zhàn)嗎?
時至今日,大模型的運營成本、后續(xù)虧損仍舊居高不下。海外頭部大模型企業(yè)如OpenAI,2024年的運營成本將超過85億美元,預(yù)計虧損約50億美元,預(yù)計2023年至2028年的總虧損將達到440億美元。
至于模型訓練成本,OpenAI預(yù)測到2026年會高達95億美元。
國內(nèi)在大模型行業(yè)雖小有成就,但與全球大模型平均發(fā)展速度相比,停止或者減少訓練研發(fā)還為時尚早。斯坦福大學基礎(chǔ)模型研究中心在去年9月份發(fā)布了一則排名,排名前十的模型廠商包括AI創(chuàng)業(yè)公司Anthropic旗下的Claude 3.5系列、Meta旗下的Llama3.1系列、OpenAI旗下的GPT-4系列、谷歌旗下的Gemini 1.5系列。
中國大模型目前僅有阿里旗下的通義千問2 Instruct 進入了前十,目前全球AI大模型數(shù)量超過1328個。往后國內(nèi)大模型賽道的投入資本只會越來越多,2024年,盡管整個人工智能行業(yè)的整體融資額同比翻了1倍多,但融資交易數(shù)只增長了約10%。
換句話說,大模型賽道已經(jīng)到了殘酷的淘汰期,截至2024年11月,我國共有309個生成式人工智能產(chǎn)品完成備案。頭部吃肉喝湯,小企業(yè)不僅拿不到投資,甚至連繼續(xù)生存都是問題。為了活下去,要么價格戰(zhàn),要么卷營銷。
但一心想要提前占領(lǐng)市場的頭部企業(yè)不惜一邊持續(xù)價格戰(zhàn),一邊瘋狂撒錢營銷。
數(shù)據(jù)顯示,豆包在去年6月上旬,新一輪大規(guī)模廣告投放的金額飆升到1.24億元。Kimi在10月份的前20天內(nèi),廣告投放費用高達1.1億元人民幣。2025年,逐漸走向成熟的大模型固然多了一絲底氣,但前路漫漫,需要花錢的地方數(shù)不勝數(shù)。
“算力”才是第一生產(chǎn)力
2024年,大模型企業(yè)用接連不斷的價格戰(zhàn)與鋪天蓋地的廣告,讓各類大模型產(chǎn)品在現(xiàn)實世界里一再普及,但隨著用戶越來越多,因算力資源而導致服務(wù)崩盤的事故再次讓整個大模型賽道陷入沉思。
不完全統(tǒng)計顯示,去年一年,Kimi、文心一言、ChatGPT……皆曾出現(xiàn)過無法正常使用的情況。ChatGPT還有一度因為需求量過大暫停新用戶注冊。國內(nèi)則一到論文季,Kimi等主打文本處理類的產(chǎn)品就“癱瘓”。
算力之于大模型的發(fā)展有多重要?算力、算法、數(shù)據(jù)一度被認為是大模型技術(shù)的“三馬車”。這兩年,算法的創(chuàng)新使算力需求一直處于高增長狀態(tài),對比GPT-3與最新發(fā)布的LLaMA3-405B,雖然前后模型規(guī)模僅增大2.3倍,但所需算力卻增長了116倍。
因此,算力逐漸成為大模型賽道的第一生產(chǎn)力,而全球頭部大模型企業(yè)在算力上的布局早已拉開序幕。
據(jù)悉,OpenAI與微軟的巨型數(shù)據(jù)中心項目,預(yù)計成本超過1150 億美元,配備數(shù)百萬塊 GPU。但OpenAI仿佛并不滿足,又與甲骨文達成合作,在德州建立的數(shù)據(jù)中心未來可容納數(shù)十萬個英偉達GPU;Meta計劃儲備35萬張英偉達H100GPU,未來算力儲備將達到60萬張。
國內(nèi)的算力需求也進一步爆發(fā)。一方面,用戶體驗需要算力資源支撐,另外一方面,各大企業(yè)之間的產(chǎn)品趨于同質(zhì)化,在技術(shù)上始終沒有拉開一定的差異距離,只能一再卷價格。算力或許會是未來破局的關(guān)鍵。
有機構(gòu)預(yù)測過,到2030年國內(nèi)100%的推理需求都需要由超大規(guī)模數(shù)據(jù)中心來完成。全球大模型賽道掀起一陣智算中心熱,截至2024年上半年,國內(nèi)也已經(jīng)建設(shè)和正在建設(shè)的智算中心超過250個,2024年上半年智算中心招投標相關(guān)事件791起,同比增長高達407.1%。
但國內(nèi)當前的算力供應(yīng)有一個不可忽視的點:芯片。
數(shù)據(jù)顯示,國內(nèi)AI訓練芯片市場英偉達占據(jù)了80%的市場份額,在算力供應(yīng)鏈形成之前,這無疑是必須改變的一個僵局。上海的“算力浦江”智算行動實施方案里就表示,要在2025年,實現(xiàn)新建智算中心的國產(chǎn)算力芯片使用占比超過50%。
除了芯片,全球大模型賽道推崇的10萬卡群實際建設(shè)起來要面臨的現(xiàn)實問題還有很多。
一來,數(shù)據(jù)中心耗電巨大,有數(shù)據(jù)指出,10萬卡集群的日耗電量可達300萬度,相當于一個城市的日均居民用電量。二來,算力集群越大,故障率也呈上升趨勢,10萬卡集群每20分鐘可能會出現(xiàn)故障;三來,當前算力短缺且昂貴,但不少企業(yè)訓練大模型的算力有效利用率往往不足 50%。
當然,整個大模型賽道上至企業(yè)、下至相關(guān)部門都在想方設(shè)法解決算力供應(yīng)過程中的各種意外。首先,在能源損耗方面,海外很多國際公司已選擇分布式部署的策略,谷歌和微軟也在推進多數(shù)據(jù)中心的協(xié)同訓練。
至于芯片方面,國內(nèi)不少企業(yè)在進行多芯混訓,如百度在異構(gòu)算力的統(tǒng)一管理下,已經(jīng)實現(xiàn)95%的混合訓練效能,并將集群故障恢復時間縮短至分鐘級。從國內(nèi)一部分算力集群的利用率上看,算力浪費的情況正在改善,西安一人工智算中心算力使用率高達98.5%。
種種跡象表明,全球大模型市場“開弓沒有回頭箭”,所幸這一次,科技圈應(yīng)該不會再重現(xiàn)元宇宙的悲劇了。
2025年,是時候“卷應(yīng)用”了?
開始創(chuàng)造實際價值,成了2025年大模型賽道的主基調(diào)。目前,大模型應(yīng)用已經(jīng)逐漸滲透到金融、醫(yī)療健康、教育培訓、搜索、辦公等多個場景。李彥宏曾經(jīng)直言,行業(yè)不應(yīng)該再卷模型了,應(yīng)該直接創(chuàng)造應(yīng)用價值。
根據(jù)“經(jīng)濟觀察報”統(tǒng)計,截至2024年10月9日,網(wǎng)信辦共通過188項生成式人工智能備案,但超過三成的大模型在通過備案后未進一步公開其進展情況;僅有約一成的大模型仍在加速訓練模型;接近一半的大模型則直接轉(zhuǎn)向了AI應(yīng)用的開發(fā)。
形成這種局面的原因也不難猜。一方面,行業(yè)的價格戰(zhàn)無論還繼不繼續(xù),其背后所能發(fā)揮的效應(yīng)也大不如前,在各大巨頭的相互壓迫下,整個市場不得不趨于良性競爭。另外一方面,算力資源等技術(shù)發(fā)展現(xiàn)狀讓基礎(chǔ)模型動輒一次就要數(shù)億美元的投入。
馬斯克曾估算,GPT-5的訓練可能需要3萬-5萬張英偉達H100芯片,僅芯片成本就超過7億美元。轉(zhuǎn)向應(yīng)用,自然就成了一大部分企業(yè)拼不過技術(shù)、資本后,選擇曲線救國的一種主要方式。
而頭部企業(yè)雖然在技術(shù)資源、資金方面勉強還算充裕,但市場搶奪早在大模型爆發(fā)之際就啟動了“加速鍵”,如果不以應(yīng)用提前占據(jù)先機,很有可能會被淹沒在歷史的塵埃里。僅在國內(nèi),通用大模型、行業(yè)大模型在這兩年層出不窮。
《生成式人工智能服務(wù)管理暫行辦法》顯示,通過備案的通用大模型包括百度文心一言、商湯大模型“商量SenseChat”、百川智能的百川大模型、智譜華章的“智譜清言”;行業(yè)大模型包括昆侖萬維“天工”大模型、知乎“知海圖AI”模型、金山辦公“WPS AI”、好未來“MathGPT”大模型、網(wǎng)易有道“子曰”教育大模型。
一些企業(yè)的“模海戰(zhàn)術(shù)”已開啟,典型的例子是阿里,2024年云棲大會,阿里不僅宣布再度降價,還一口氣上架了100 多個模型,包括大語言模型、多模態(tài)模型、數(shù)學模型和代碼模型。大模型一涌而出,于整個賽道而言,或許是百家爭鳴的好事。
但于某一家企業(yè)而言,同類產(chǎn)品一個接一個面世,自身產(chǎn)品的獨特性就會大打折扣,尤其當前大模型賽道本就陷入同質(zhì)化泥沼無法自拔。以百度為例,去年百度的大模型收入雖然有所上升,但增速卻大幅度下降。
數(shù)據(jù)顯示,2024年第三季度,百度云的環(huán)比增速從14%降至11%,生成式AI云收入環(huán)比增速從95%驟降至17%。究其原因,與市場競爭加劇脫不開關(guān)系,為了守住市場份額,“應(yīng)用”價值必須提升。
然而,企業(yè)一味奔向應(yīng)用,放棄技術(shù)進步可以嗎?有一點不得不提,目前大模型市場拿單效率與模型本身息息相關(guān)。去年一年里,大模型招標項目陡增,其中,阿里云、百度云、騰訊云、字節(jié)的火山云皆是中標常客。
但細究下來,騰訊云共計中標28個,金額總計2.1億元;阿里云中標20個,共計中標5.7億元;百度云中標37個,共計拿下5億元的單子;火山云中標24個,但總金額只有6186萬元。
四家為什么會差異至此?這其中是由于火山云雖拿遍智能體細分領(lǐng)域的訂單,但智能體的復雜性和客制化難度并不算高,所以客單價會受研發(fā)量規(guī)模上下浮動。換句話說,大模型的“錢景”始終與技術(shù)正相關(guān),2025年,大模型只能接著卷下去。
消費最前線,為您提供專業(yè)極致中立的商業(yè)觀察,本文為原創(chuàng)文章,謝絕保留作者相關(guān)信息的任何形式的轉(zhuǎn)載。
編者按:本文轉(zhuǎn)載自微信公眾號:消費最前線(ID:xiaofeizqx),作者:江心白
前瞻經(jīng)濟學人
專注于中國各行業(yè)市場分析、未來發(fā)展趨勢等。掃一掃立即關(guān)注。