To C大模型,將是字節(jié)跳動新“王牌”?
作者|伯虎團隊 來源|伯虎財經(jīng)(ID:bohuFN)
字節(jié)跳動,“放大招”了!
5月15日,火山引擎發(fā)布會上,字節(jié)正式對外發(fā)布豆包大模型,并宣布了0.0008元/千Tokens的超低定價。
火山引擎還做了個類比:一元錢就能買到豆包主力模型的125萬Tokens,大約200萬個漢字,相當于三本《三國演義》。
豆包大模型的上線,意味著字節(jié)正式加入今年全球最火熱的大模型戰(zhàn)局。
坊間有評論認為,作為國內(nèi)最激進的互聯(lián)網(wǎng)公司,字節(jié)跳動在大模型的投入上是不夠的。但從去年11月開始,字節(jié)開始把越來越多的資源放到AI探索上:根據(jù)晚點LatePost報道,梁汝波不僅在OKR里強調將調整公司組織配合AI戰(zhàn)略,新的研發(fā)也在組建。此前,抖音前任CEO張楠也宣布要聚焦剪映,尋求在AI輔助創(chuàng)作上的的突破。
內(nèi)部多次大調整,似乎也意味著字節(jié)要拿出真正實力來決勝AIGC時代。
大模型“價格戰(zhàn)”打響
豆包大模型的推出,正式打響了國內(nèi)大模型價格戰(zhàn)。
近期,全球AIGC領域最熱議話題莫屬于OpenAI發(fā)布了最新旗艦生成AI模型GPT-4o,不僅擁有業(yè)內(nèi)最前沿強悍的技術,還擁有更低的價格。
與GPT-4 Turbo相比,GPT-4o速度提升了兩倍,速率限制高出了5倍,價格還減半。值得注意的是,OpenAI還允許用戶無須注冊ChatGPT就可直接使用該服務,將使用條件限制取消。
OpenAI的這波操作,促使國內(nèi)做大模型大廠們不得不思考接下來如何將技術提升上去,同時價格還得壓下來。
字節(jié)推出國內(nèi)超低價的豆包大模型,也算是跟進OpenAI這波操作。
據(jù)了解,豆包大模型定價只有0.0008元/千Tokens(即0.8厘處理1500多個漢字),宣稱比行業(yè)便宜99.3%。同時豆包大模型應用場景也十分最豐富,目前日均處理1200億Tokens文本,生成3000萬張圖片。
除字節(jié)外,其他大模型廠商們也開始行動了。
近日,幻方量化旗下DeepSeek(深度求索)推出第二代MoE模型DeepSeek-V2,該模型API定價為每百萬Tokens輸入1元、輸出2元(32K上下文),價格為GPT-4 Turbo的近百分之一。
此外,智譜 AI 大模型開放平臺也推出全新價格體系,新注冊用戶可以獲得額度從500萬tokens 提升至2500萬tokens,同時個人版 GLM-3Turbo模型產(chǎn)品的價格從5元/百萬tokens降低至1元/百萬 tokens。
大家加快技術速率升級與降價,歸根結底是大模型要真正的“落地”。
據(jù)麥肯錫報告分析,到2030年,大模型有望在全球推動49萬億人民幣的經(jīng)濟增量。市場是十分龐大的,但此前大模型處于一種“虛高”狀態(tài)中。
如今你隨機問10個人,可能9個都不清楚大模型究竟是什么。
需要大模型的客戶端,又用不起。坊間傳聞,GPT-4的訓練成本高達10億美元;百度十多年間在AI上的投入超過1000億元。
研發(fā)成本過大決定著定價高,導致中小企業(yè)壓根用不起。
騰訊云副總裁吳運聲接受媒體采訪曾表示,“為什么騰訊云在去年提行業(yè)大模型,是因為通用大模型很大,真正要在行業(yè)里面用起來有很多門檻。客戶買不起,買了推理也推理不起,哪怕精調也太貴了。”
消費者不清楚,企業(yè)端用不起,自然而然“大模型也被傳出是‘概念產(chǎn)品’”。不過,現(xiàn)在掀起的技術升級與降價風潮,勢必對大模型真正的“接地氣”利好。
To C再To B
全新大模型商業(yè)化路徑
回到字節(jié),則早有AI大模型的野心。
發(fā)布豆包大模型前,字節(jié)就在AI應用上試水。
豆包,原名云雀大模型在去年8月推出,是國內(nèi)首批通過算法備案的大模型之一。同時字節(jié)近期接連推出AI產(chǎn)品,包括擁有AI生圖功能的“星繪”、AI角色互動的“話爐”以及對標小紅書的“可頌”等。
從云雀大模型的研發(fā)到大模型服務平臺豆包的推出,再到產(chǎn)品應用,可以看出字節(jié)AIGC領域布局上進行了全方位覆蓋的打法。
豆包大模型的正式推出,字節(jié)做大模型真實意圖也展露出來:
依舊要做爆款應用,只是這次打造的是“系統(tǒng)型超級應用”,面向的是C端市場。
目前國內(nèi)大多大模型廠商是基于基礎模型再自研出自家通用大模型,比如百度文心一言,需要進行大量的學習訓練再展開實際應用,還是被定義為通用大語言模型,面對的客群也主要B端企業(yè)用戶。
豆包是一個大模型,但并不像通用大模型,其概念更像AGI即更全面的人工智能系統(tǒng)。
目前,豆包不單具備識別、語音合成等大模型基礎通用的功能,它還可以通過各種學習訓練成專有模型或者嵌入應用。
據(jù)透露,基于豆包大模型,字節(jié)不僅打造了AI對話助手“豆包”,還有AI應用開發(fā)平臺“扣子”、互動娛樂應用“貓箱”,以及星繪、即夢等AI創(chuàng)作工具,同時還把大模型接入抖音、番茄小說、飛書、巨量引擎等50余個業(yè)務。
訓練或是嵌入AI應用越多,這個大模型就有海量數(shù)據(jù)和場景可以做訓練支撐,功能與場景也更將全面,這也意味著大模型的自主訓練學習的能力會更強,這也更接近AGI的概念了。
超低價及嵌入應用這兩點,也表明是字節(jié)做大模型面向的是C端市場,其未來或許是想靠龐大的用戶量進一步驅動大模型的發(fā)展,進而再發(fā)展該領域B端客戶,這是典型的“用C端應用來做B端產(chǎn)品的思維”。
但這個靠大模型驅動的AI應用體系一旦形成,可預測的是字節(jié)未來或許將打造一個“系統(tǒng)型超級應用。”
試想一下,嵌入豆包大模型的應用或是衍生出的AI應用,在技能上是無邊界的,這也意味AI應用功能部分可能會重合,應用的差異性將會縮小,最后或許就合并形成一個系統(tǒng)型超級應用(可通過模型訓練學習后功能齊全的應用)
這也意味著,未來AI手機或許也只需要一個功能齊全的系統(tǒng)型超級應用了。那時候,就不是應用間的競爭,而是超級應用間的競爭,廠商們可能都需要自研大模型,要么就要像有大模型的廠商去購買了。
字節(jié)這步大模型的“棋”,布得很大。
機遇與挑戰(zhàn)幾何?
野心縱然再大,也得有能力去實現(xiàn)。那么,字節(jié)做大模型的優(yōu)勢有哪些?
一是用戶;二是資金了。
作為國內(nèi)爆款應用最多的大廠之一,字節(jié)旗下抖音國內(nèi)就有超7億用戶,TikTok在全球也擁有超10億用戶,完全具備大模型訓練時所需的龐大用戶數(shù)據(jù)做支撐。
字節(jié)的資金儲備也充足。
4月,胡潤研究院發(fā)布了《2024全球獨角獸榜》,字節(jié)跳動以1.56萬億元人民幣的價值連續(xù)三年成為全球價值最高的獨角獸全球價值最高的獨角獸。另據(jù)市場消息,2023年,字節(jié)營收達到了1200億美元,這年息稅折舊攤銷前利潤就超過400億美元。
不過,大模型領域所需的資金投入是“無底洞”。
字節(jié)收入是多,但公司如今也再尋找“第二增長曲線”。
本身而言,字節(jié)旗下爆款應用是高度依賴用戶的,如今隨著互聯(lián)網(wǎng)用戶增長的見頂以及內(nèi)容平臺的激烈競爭,字節(jié)業(yè)績增長也顯著放緩。挖增,同時也是所有內(nèi)容平臺要破的困局。
布局AI領域,是提供給了字節(jié)收入的新路徑,但也加大了研發(fā)、營銷多方面的資金投入量。此外,字節(jié)訓練的又是一個功能性更全的大模型系統(tǒng),資金投入更是龐大。
所以對于字節(jié)而言,要做好大模型,投入大也是其需要面對的第一大難關。
還有技術上的難關。
與GPT-4相比,國內(nèi)的大模型整體都處于一個落后的狀況。不過,豆包大模型要打造的模型概念更系統(tǒng)復雜,這也意味著其不僅需要海量數(shù)據(jù)支撐,還需豐富的場景支撐,而這背后需要更為龐大的算力支撐。
三,應用落地上的難關。
字節(jié)能不能打造出系統(tǒng)型超級應用先不說。
大家做出的大模型多為生成式AI,落地場景一般是嵌入AI應用中。
但如今AI應用都遠未普及,許多用戶可能都還分不清AI應用與普通應用間的區(qū)別,甚至還有都沒用過AI應用的。
可見,大模型在應用落地上任重而道遠。
豆包大模型目前又處于起步階段,用戶量反響都還不好拿來說。但將豆包大模型嵌入自家應用體系中,勢必會打破各個應用的邊界,應用的功能或將重合,這是字節(jié)可能先要面對的問題。
總的來看,字節(jié)入局大模型領域的姿勢是很新穎,但注定也是長路漫漫。然而一旦踏上正軌,字節(jié)或能迎來一個全新的“系統(tǒng)型超級應用”爆款時代。
參考資料:
1、琢磨事:國內(nèi)的AI大模型,為什么應該做系統(tǒng)型超級應用?
2、互聯(lián)網(wǎng)怪盜團:字節(jié)跳動的AI野心
*文章封面首圖及配圖,版權歸版權所有人所有。若版權者認為其作品不宜供大家瀏覽或不應無償使用,請及時聯(lián)系我們,本平臺將立即更正。
編者按:本文轉載自微信公眾號:伯虎財經(jīng)(ID:bohuFN),作者:伯虎團隊
前瞻經(jīng)濟學人
專注于中國各行業(yè)市場分析、未來發(fā)展趨勢等。掃一掃立即關注。