大模型的中場戰(zhàn)事,深入垂直行業(yè)腹地
作者|科技云報道 來源|科技云報到(ID:ITCloud-BD)
自從OpenAI于2022年11月推出ChatGPT后,一場波及全球科技界的“AI海嘯”就此爆發(fā)。
自今年以來,國內已有超過30家企業(yè)入局大模型賽道。從百度“文心一言”、阿里“通義千問”的發(fā)布,到網(wǎng)易“玉言”、科大訊飛“星火”、昆侖萬維“天工”等的推出,再到騰訊“混元”、京東“ChatJD”、華為“盤古”等的預告?;ヂ?lián)網(wǎng)巨頭、科技公司紛紛秀出“肌肉”,誰也不想在這場大模型混戰(zhàn)中掉隊。
在由OpenAI引發(fā)的這場狂奔中,大模型的發(fā)展階段已經從“通用”邁入“垂類”。如果說通用大模型是大模型發(fā)展的初期階段,那么垂直場景應用則可以視為“中場戰(zhàn)事”。
在該階段,應用與場景先行,倒逼垂直領域的大模型飛躍發(fā)展。不少醫(yī)療、金融、教育等行業(yè)內擁有用戶數(shù)據(jù)積累的企業(yè),已開始基于大模型“底座”,訓練適配自身的垂類模型,比如近期由上海聯(lián)通、華山醫(yī)院聯(lián)合開發(fā)的Uni-talk、醫(yī)聯(lián)“MedGPT”、云知聲的“山海”等。
一
大模型路線分化
大模型讓人類感受到的智能,是就像人類自身的學習那樣,通過通用知識和邏輯能力的訓練,具備了解決各種問題的能力。
大模型也有這種能力,基于文本語料采用無監(jiān)督學習訓練的模型可以用少量的監(jiān)督樣本,用于各類機器學習任務,比如圖片分類、翻譯、對話、寫代碼等,這樣的能力就是所謂的通用能力。
當大模型發(fā)展到一定階段,各領域企業(yè)意識到,其通用能力已無法承載更為專業(yè)的領域,比如醫(yī)療、金融等,每一個領域都是獨立的知識體系,具備極為龐雜的知識量,顯然僅靠通用大模型無法滿足垂直領域的需求,這也為大模型之后發(fā)展路徑的分化埋下了伏筆。
事實上,通用大模型發(fā)展至今,面臨算力需求大、訓練和推理成本高、數(shù)據(jù)質量不佳等挑戰(zhàn)。一個成功的且可對外商業(yè)化輸出的通用大模型,要求廠商擁有全棧大模型訓練與研發(fā)能力、業(yè)務場景落地經驗、AI安全治理舉措、以及生態(tài)開放性等核心優(yōu)勢。
另外,訓練基礎模型的成本也是非常之高,做一個千億級的大模型,需要單機群萬卡以上的算力。從國內外來看,真正做通用模型的公司并沒有那么多。相反,訓練垂直領域模型所需要的代價和資源遠遠小于從零開始做通用模型。
因而,從商業(yè)邏輯的角度來看,大部分公司不具備做通用大模型的能力,巨頭更適合做通用大模型,擁有豐富場景數(shù)據(jù)積累的公司更適合做垂域模型。
垂類大模型以深度解決行業(yè)需求為主,即企業(yè)在自己擅長的領域訓練適合自己的“產業(yè)版GPT”。這類大模型生成的內容更符合特定垂類場景的需求,質量更高。
當前,已經可以看到不少垂類模型應用在金融、醫(yī)療、交易等場景中。比如,彭博社根據(jù)自身豐富的金融數(shù)據(jù)資源,基于GPT-3框架再訓練,開發(fā)出了金融專屬大模型BloombergGPT。
由此,大模型賽道目前出現(xiàn)了三類廠商:一類對標GPT的通用大模型,聚焦基礎層的廠商;一類是在開源大模型基礎之上訓練垂類大模型,聚焦垂直行業(yè)的企業(yè);另一類則是專注具體應用的純應用公司。
二
通用VS垂類
從通用大模型到垂類大模型,是大模型技術發(fā)展到一定階段的必然結果。
垂直大模型的發(fā)展主要體現(xiàn)在各個領域的模型性能持續(xù)提升,例如語音識別的錯誤率逐年下降,自然語言處理的語義理解能力不斷提升等。通用大模型則在多任務學習、遷移學習等方面取得了顯著進展,已經成為自然語言處理領域的重要研究方向。
比如,生物大模型能夠提高AI制藥效率。國外的研究報告顯示,AI可以將新藥研發(fā)的成功率提高16.7%,AI輔助藥物研發(fā)每年能節(jié)約540億美元的研發(fā)費用,并在研發(fā)主要環(huán)節(jié)節(jié)約40%至60%的時間成本。根據(jù)英偉達公開資料,使用AI技術可使藥物早期發(fā)現(xiàn)所需時間縮短至三分之一,成本節(jié)省至兩百分之一。
在產業(yè)角度來看,通用模型就是“百科全書”,能夠有問必答,能夠適用不同的產業(yè)土壤,而垂直模型類似于單領域的專家,雖然專業(yè),但受眾注定是少數(shù)人。
從演進路徑上看,垂類模型是在通用大模型基礎上訓練而來,如果撇開通用大模型,垂類大模型不復存在。垂類模型強調領域的Know-How,對于特定領域來說,需要針對該領域的任務做指令學習。行業(yè)不同,場景不同,指令學習的區(qū)別也極大。比如,泛互聯(lián)網(wǎng)行業(yè)更關注營銷、推薦的效果,金融更領域更關注風控、可信、以及營銷的效果。
兩者的最大區(qū)別在于,垂類大模型在資源投入、成本投入等方面的要求下降了,但額外要求是行業(yè)Known-How,即對這個行業(yè)的知識要求提高了。
而從成本方面考量,通過通用大模型微調實現(xiàn)的垂類大模型相較通用大模型是“幾何級別的下降”。根據(jù)國金證券的測算,在模型微調階段,由于訓練量級較小,僅為萬級,相關的算力成本相比之下可忽略不計。
以斯坦福大學于2023年3月發(fā)布Alpaca為例,這是一個基于LLaMA-7B基座,應用5.2萬指令對模型微調訓練而來的對話類語言模型。該模型基于8塊A100微調,微調時長3小時,算力成本不超過300元。
由于垂直應用大模型更符合垂類場景的需求、質量比通用大模型更高,也讓眾多企業(yè)看到了其中的機會。
醫(yī)聯(lián)近日發(fā)布了自主研發(fā)的基于Transformer架構的國內首款醫(yī)療大語言模型——MedGPT,其主要致力在真實醫(yī)療場景中發(fā)揮實際診療價值,可實現(xiàn)從疾病預防、診斷、治療、康復的全流程智能化診療能力。
5月,微盟正式發(fā)布基于大模型的AI應用型產品WAI,該產品已正式上線包括話術生產、短信模板、商品描述、種草筆記、直播口播稿、公眾號推文、短視頻帶貨文案等25個實際應用場景。
作為聚焦物聯(lián)網(wǎng)與醫(yī)療兩大領域的人工智能企業(yè),云知聲正式發(fā)布山海大模型。該大模型針對知識密度高的領域,通過數(shù)據(jù)訓練、訓練數(shù)據(jù)、微調等方式,做一些專業(yè)的加強,這樣模型既具備了通用應用水平,也針對特殊場景與領域進行了能力的加強。
山海大模型不僅在中文環(huán)境下的表現(xiàn)要好于GPT-4,甚至在醫(yī)療等個別場景下的表現(xiàn)效果,也已經開始優(yōu)于GPT-4。目標是在今年內達到ChatGPT的通用能力水平,并在醫(yī)療、物聯(lián)、教育等多個垂直領域的能力上全面超越GPT-4。
云知聲創(chuàng)始人、CEO黃偉指出,在AI 1.0時代,雖然基于深度學習,每家都有強大的技術,但整體上并沒有本質改變AI用于分類的任務,分類種類的增加仍然處在量變階段,限制了AI創(chuàng)造價值的上限。
而在大模型引領的AI 2.0時代,為人工智能帶來了新的能力,可以打造更多新的產品,滿足客戶更多的需求,例如醫(yī)療、營銷、溝通等,能夠創(chuàng)造更多的商業(yè)機會。
AI對于復雜邏輯理解能力大幅增強,扭轉了用戶對于AI“人工智障”的刻板印象,也讓更多人接受人工智能,為大模型的廣泛應用創(chuàng)造的條件。
“大模型所謂的‘思維鏈’能力,可以告訴用戶推導的過程,從而知道中間過程里有哪些東西是錯的,優(yōu)化的時候就可以獲得提示了,而不是像過去一樣只能看見和調整參數(shù)的權重。”
云知聲創(chuàng)始人兼CTO梁家恩表示,但就目前而言,大模型仍然是有限的東西,但對于沒有見過的東西,大模型會生成“似是而非”的回答,而隨著AI生成能力的不斷增強,但校驗會更加困難,這也讓AI行業(yè)需要不斷去探索新的解決方法。
相信隨著越來越多企業(yè)入局,垂直大模型在各個行業(yè)和細分領域中將大量涌現(xiàn)。而那些能將一個垂直領域做專、做透,用高質量的數(shù)據(jù)持續(xù)優(yōu)化模型,跑通商業(yè)閉環(huán),構建起產業(yè)生態(tài)的企業(yè),最終將把價值鏈做到足夠長。
編者按:本文轉載自微信公眾號:科技云報到(ID:ITCloud-BD),作者:科技云報道
品牌、內容合作請點這里:尋求合作 ››
前瞻經濟學人
專注于中國各行業(yè)市場分析、未來發(fā)展趨勢等。掃一掃立即關注。