GPT-4來了,但不要擔(dān)心:你還不會失業(yè)
作者|劉沐軒 來源|時代周報(ID:timeweekly)
沒有用過ChatGPT的人可能要抓緊時間了,它的進(jìn)化速度遠(yuǎn)遠(yuǎn)超乎人們的想象。
拋開其復(fù)雜的內(nèi)核,許多人都把ChatGPT當(dāng)成一個有問必答的AI系統(tǒng),有時讓人驚嘆于它淵博的知識、清晰的語言邏輯,有時也不禁使人調(diào)侃其“不懂裝懂”地給出離譜的答案。
這款由OpenAI公司開發(fā)的AI系統(tǒng)——ChatGPT,已經(jīng)有超過1億的日活用戶。
但這顯然只是這個AI系統(tǒng)的一個起步。3月15日,OpenAI發(fā)布了全新升級的版本,名為GPT-4。相比于只能接收文字提問的老版本,最新的GPT-4可以識別圖片的意思,10秒鐘做出一個簡單的網(wǎng)站,甚至能回答出“這個表情包為什么好笑”的刁鉆問題。
△GPT-4煞有介事地解釋為什么梗圖好笑。(圖源:OpenAI)
不僅如此,科學(xué)家們現(xiàn)在讓GPT-4去考試,發(fā)現(xiàn)它在美國律師資格考試中的成績超過90%的人類考生,在語言考試GRE、“美國高考”SAT中拿到近乎滿分,在生物奧林匹克競賽中超過99%的人類考生。
總體而言,目前這個基于對話訓(xùn)練的GPT-4,在語言方面出類拔萃,但其數(shù)學(xué)水平似乎有待提高。
ChatGPT還沒玩明白,GPT-4怎么就要來了?AI發(fā)展的速度令人驚嘆甚至驚恐,我們是不是要失業(yè)了?而在AI引發(fā)的一些列疑問中,失業(yè)可能恰恰是最不急迫的那一個。
一
為什么不必?fù)?dān)心失業(yè)?
在圍棋中戰(zhàn)勝人類,在考試中取得滿分等等,還只是讓人把AI當(dāng)作新鮮事來看待。然而當(dāng)AI在簡單編程、旅游規(guī)劃、保費(fèi)評估和診斷病情等具體場景下出色地完成任務(wù)時,做著同樣工作的人慌了。
AI不需要吃飯睡覺、沒有精神壓力,也無需勞動保障。按照內(nèi)卷的邏輯,打工人豈不是要被這個AI“卷”走了?
這一切似曾相識,卻也有些不同。
工業(yè)革命后,機(jī)器給社會生產(chǎn)方式帶來了深刻的變革,大量人員下崗。但直到今天,也沒有幾個工廠能用得上比肩特斯拉超級工廠的生產(chǎn)方式。
一方面,機(jī)器取代了簡單的重復(fù)勞動,另一方面,有能力取代精密勞動的機(jī)器,成本極其高昂。
而不變的是,真正純粹的體力勞動和人工服務(wù),將越來越貴。
面對AI是否會引發(fā)大規(guī)模失業(yè)的問題,答案是否定的。因為沒人想讓AI替代自己,打工人不想,老板和各國政府估計也不敢。
假設(shè)一家企業(yè)的老板執(zhí)意要把員工都替換成AI,那么老板是否懂得如何管理AI?該從哪里購買統(tǒng)籌AI的服務(wù)?
他最終仍然需要雇傭有能力使用AI輔助工作的員工。例如,科技巨頭企業(yè)微軟近期就設(shè)立了新職位——指令工程師(Prompt Engineer),專門負(fù)責(zé)與AI溝通。
即便是企業(yè)學(xué)會了活用AI,提高效率后進(jìn)行裁員,也沒有國家敢接受大規(guī)模失業(yè)引發(fā)的政治風(fēng)險。因為選票仍然在人們手中,若是發(fā)生大規(guī)模失業(yè)的情況,福利政策和救濟(jì)政策需要隨時跟進(jìn),這對各國政府來說都是不小的壓力。
更何況,AI的能力超出了人們想象,目前大多數(shù)國家、組織、個人對AI的態(tài)度都是謹(jǐn)慎、謹(jǐn)慎、再謹(jǐn)慎。
實(shí)際上,在ChatGPT出現(xiàn)前,每個人都已經(jīng)主動或被動地?fù)肀I十幾年了。
目前看來,用于消費(fèi)領(lǐng)域的AI似乎不會造成直接的人員下崗,抖音、淘寶、美團(tuán)、滴滴等這些互聯(lián)網(wǎng)平臺早已經(jīng)在用AI為用戶提供服務(wù)。推薦人們感興趣的視頻或商品、安排外賣騎手接單、規(guī)劃路線等等,這些決策幾乎都有AI的參與,甚至全部被AI接管。
近十幾年來,AI就是這樣悄無聲息地接管了大量的工作,卻沒有引發(fā)大規(guī)模的失業(yè)。
類似問題其實(shí)早已有了案例。例如,讓人類邁入信息時代的計算機(jī)和互聯(lián)網(wǎng),在剛出現(xiàn)的時候也足夠顛覆,然而今天,沒人會把自己的問題歸咎于電腦生產(chǎn)企業(yè)或互聯(lián)網(wǎng)本身。
此前,網(wǎng)絡(luò)上一種流行的說法也從側(cè)面展示出AI的局限性:“AI不能坐牢,所以不能替代會計”。
正因為AI不能負(fù)起相關(guān)責(zé)任,所以目前看來無法取代人。同理,AI法官和AI醫(yī)生的判斷有可能被廣泛接受嗎?不然未來所有的糾紛難道都要?dú)w咎于OpenAI、谷歌、微軟這些企業(yè)嗎?
面對這樣的社會變革趨勢,有的人會覺得“禮崩樂壞”,但又不可能完全與AI割席,陷入沒有盡頭的精神內(nèi)耗。而有想法的人則開始學(xué)習(xí)掌握訓(xùn)練AI的能力,直到平臺推送的都是他想要的內(nèi)容,俗稱“養(yǎng)號”。
△ 在平臺上隨便一搜,就有馴化AI的養(yǎng)號攻略。(圖源:社交媒體截圖)
可預(yù)見的未來是,AI想要在工作崗位上替代真人,將依舊是一個隱性的、謹(jǐn)慎的過程,能夠活用AI的打工人將具備更強(qiáng)的競爭力和議價能力。
對此,微軟德國執(zhí)行長Marianne Janik也曾表示,新的AI技術(shù)已經(jīng)帶來新的變革,大多數(shù)人不需要換工作,而是要在此關(guān)鍵時刻學(xué)習(xí)AI讓自己成為專家,為企業(yè)的產(chǎn)品與服務(wù)增加價值。
他對企業(yè)家的建議則是,要開始訓(xùn)練員工使用AI,這樣才能順利過渡到下一個世代。
二
顛覆認(rèn)知的潛力與威脅
AI與人的不同之處,恰恰是它的魅力,也需要我們警惕。
通過攝入大量的信息,科學(xué)家們發(fā)現(xiàn),AI越來越像一個總是能蒙對答案,但寫不出解題步驟的學(xué)生。
2020年,麻省理工學(xué)院用AI發(fā)現(xiàn)了一種新的廣譜抗生素Halicin,它能殺死許多具備耐藥性的“超級細(xì)菌”,卻不會讓細(xì)菌產(chǎn)生耐藥性。
科學(xué)家們先是教AI了解抗生素分子的普遍規(guī)律,然后放手讓AI自行模擬了61000個分子,最終找到了Halicin。
△ 由AI找到的抗生素Hailicin。(圖源:社交媒體)
但整個事件給人帶來的震撼不是AI找得有多快多準(zhǔn),而是AI學(xué)生用科學(xué)家老師們至今都無法理解的解題方法,得出了Halicin這個正確結(jié)果。
這并非特例,早在AlphaGo大戰(zhàn)世界圍棋冠軍李世石時,人們就發(fā)現(xiàn)AI經(jīng)常會走出一些人類棋手匪夷所思的走法。
現(xiàn)在,許多行業(yè)的前沿從業(yè)者和研究者都在使用AI,但絕大多數(shù)人并不知道AI為何如此抉擇。如果不及時反思或?qū)W習(xí)AI的方法論,這將是一件恐怖的事情。
不知道其方法論,那AI所做的一切真的正確嗎?如果AI能夠輕易完成科研成果、股票交易這些人類社會較高難度的任務(wù),那么追求真理、犧牲精神、人心博弈等這些最具人性的行為又有何意義?
目前僅限于解決特定問題的AI也許還沒什么威脅,但等到AI發(fā)展到了廣泛處理各種事務(wù),接管每個人的方方面面時,情況可能會變得讓人哭笑不得。
AI會綜合人們知道的、不知道的所有信息,為人們提供決策或建議,而人們可能根本沒有核實(shí)其對錯的能力。在一些小事上,會直接替人作出決策,就像AI現(xiàn)在推送個性化內(nèi)容一樣。
最終,對絕大多數(shù)人而言,AI什么都知道,什么都做得比人好。這樣的良師益友,為何不盡情地依賴它?又或者會有人將其人格化,甚至將AI奉若“上帝”。
那些早就開發(fā)出AI,并供給資源調(diào)控其進(jìn)化速度和方向的公司,也可能會被改名為“教會”。
屆時,今天那些沉溺于商品、短視頻推送算法,放棄思考、拒絕接受新觀點(diǎn)的人,可能最先成為“教徒”。人類社會或許也會面臨一輪新的啟蒙運(yùn)動,重新?lián)肀Ю硇浴?/p>
這也正是基辛格、谷歌前CEO施密特和麻省理工學(xué)院計算機(jī)學(xué)院的院長胡滕洛赫爾在《AI時代:以及人類的未來》一書中強(qiáng)調(diào)的,“任何情況下,真正的決策權(quán)應(yīng)該掌握在人的手里。”
三
掌握并駕馭AI
所幸,AI領(lǐng)域的先行者們,正在帶頭警惕AI取代人。
2月24日,開發(fā)ChatGPT的OpenAI發(fā)布了一則聲明,表態(tài)該公司正在謹(jǐn)慎地給AI發(fā)放學(xué)習(xí)資料,比如此前人們用的ChatGPT是基于GPT-3.5這個版本的應(yīng)用,只收錄了截至2021年底的信息。
OpenAI還在聲明中表示,“我們希望就三個關(guān)鍵問題進(jìn)行全球?qū)υ挘喝绾喂芾磉@些系統(tǒng),如何公平分配它們產(chǎn)生的利益,以及如何公平分享使用權(quán)。”
△ GPT-3和GPT-4的區(qū)別是,后者不僅可以接收文字信息,還可以學(xué)習(xí)多媒體素材。(圖源:社交媒體)
目前,決定AI發(fā)展的三大因素是算力、算法和數(shù)據(jù)(教材),這些都需要人的參與。
算力是物質(zhì)基礎(chǔ),而這就牽扯到芯片。
GPT對芯片的需求是極大的,且需求量呈指數(shù)級增長。GPT-4上一代的GPT-3.5,訓(xùn)練所需的芯片是英偉達(dá)的A100型號GPU(圖形處理器,俗稱顯卡),一顆大概要8萬元。
而完成整個訓(xùn)練過程,大概需要30000顆A100芯片,也就是2.4億元。
要知道,訓(xùn)練當(dāng)年戰(zhàn)勝李世石的AlphaGO,也只用了176顆芯片。GPT-4的整個訓(xùn)練過程需要要多少芯片,現(xiàn)在還未可知。
與此同時,訓(xùn)練AI還特別耗電,ChatGPT據(jù)說訓(xùn)練一次,就要消耗90多萬度電,相當(dāng)于1200個中國人一年的生活用電量。目前,僅僅是維持日常運(yùn)轉(zhuǎn),每天的電費(fèi)大概就要5萬美元。
此外,訓(xùn)練AI的素材目前仍然需要人工篩選。AI該學(xué)什么,判斷是否正確,這些都需要一種名為數(shù)據(jù)標(biāo)注師的工種。美國《時代周刊》在今年1月曾報道過,截止到2022年,全球已經(jīng)有500萬名數(shù)據(jù)標(biāo)注師。其中,許多人來自非洲國家,比如肯尼亞。
在算法上,目前的AI比前代更像人,也因此取得了更迅猛的進(jìn)展。
以往的設(shè)計,是“人教給AI語法和詞匯,然后讓AI講話”。但語言模型本身就是模糊的,很多概念在人類社會中都沒有所謂“正確”的定義。
比如,什么是貓?每個人都可以輕易地判斷出貓的照片,但卻沒人能簡單地總結(jié)出判斷規(guī)則。有毛?尖耳朵?大眼睛?人類老師都不一定能解釋清楚,如何教給AI學(xué)生?
科學(xué)家最終發(fā)現(xiàn),直接把100萬張貓的照片丟給AI,AI就學(xué)會了判斷“什么是貓”。因此,現(xiàn)在的算法是把“日常對話”直接丟給AI,讓AI自己感受出一種“語感”。
有時,AI的辦法讓人琢磨不透,有時甚至能啟發(fā)人。
當(dāng)前一個亟待解決的問題是,如何保障AI訓(xùn)練數(shù)據(jù)的準(zhǔn)確性?除了事實(shí)本身之外,編程語言都是經(jīng)由英語輸入,AI只能“看懂英文教材”。這就意味著,如果要訓(xùn)練ChatGPT回答中文問題,也無法保證不在翻譯上出現(xiàn)紕漏。
但拋開這些研發(fā)者的苦惱,對個人而言,ChatGPT或許將成為最好的學(xué)習(xí)工具,顛覆每個人接受教育的方式。
有問必答的ChatGPT可以從頭教你如何向它提問,這是一種對話式的學(xué)習(xí)。從孔子和蘇格拉底的時代開始,這種形式似乎就是“學(xué)習(xí)”最本真的樣子。而且在吸收了大量的知識后,ChatGPT甚至可以扮演孔子和蘇格拉底,直接與人們對話。
加州大學(xué)河濱分校2023年剛剛發(fā)布了一項研究,他們把《意識的解釋》的作者、美國認(rèn)知科學(xué)家丹尼特的所有的書和文章都輸入給ChatGPT。研究者們讓ChatGPT扮演丹尼特,回答受試者的問題,并將丹尼特自己的回答也混入其中,讓受試者判斷。
結(jié)果,25個熟悉丹內(nèi)特領(lǐng)域的哲學(xué)家平均正確率為51%,經(jīng)常閱讀丹內(nèi)特哲學(xué)博客的粉絲得分也差不多。也就是說,ChatGPT扮演的丹尼特已經(jīng)到了真假難辨的程度。
現(xiàn)在,想閱讀一本書,ChatGPT不僅可以為人們推薦、做摘要,甚至能在一定程度上替代作者本人答疑解惑。
但作者本人并不會失去價值,他的新思想恰恰是ChatGPT學(xué)習(xí)的食糧,ChatGPT也將成為敦促他思考的動力。
就像機(jī)械普及后,人工服務(wù)的價值反而越來越高。AI普及后,人的價值或許也將愈發(fā)凸顯。
編者按:本文轉(zhuǎn)載自微信公眾號:時代周報(ID:timeweekly),作者:劉沐軒
前瞻經(jīng)濟(jì)學(xué)人
專注于中國各行業(yè)市場分析、未來發(fā)展趨勢等。掃一掃立即關(guān)注。