報告服務熱線400-068-7188

GPT-4來了,但不要擔心:你還不會失業(yè)

分享到:
20 時代周報 ? 2023-03-20 10:45:45  來源:時代周報 E2280G0

作者|劉沐軒 來源|時代周報(ID:timeweekly)

沒有用過ChatGPT的人可能要抓緊時間了,它的進化速度遠遠超乎人們的想象。

拋開其復雜的內核,許多人都把ChatGPT當成一個有問必答的AI系統(tǒng),有時讓人驚嘆于它淵博的知識、清晰的語言邏輯,有時也不禁使人調侃其“不懂裝懂”地給出離譜的答案。

這款由OpenAI公司開發(fā)的AI系統(tǒng)——ChatGPT,已經有超過1億的日活用戶。

但這顯然只是這個AI系統(tǒng)的一個起步。3月15日,OpenAI發(fā)布了全新升級的版本,名為GPT-4。相比于只能接收文字提問的老版本,最新的GPT-4可以識別圖片的意思,10秒鐘做出一個簡單的網站,甚至能回答出“這個表情包為什么好笑”的刁鉆問題。

1

△GPT-4煞有介事地解釋為什么梗圖好笑。(圖源:OpenAI)

不僅如此,科學家們現(xiàn)在讓GPT-4去考試,發(fā)現(xiàn)它在美國律師資格考試中的成績超過90%的人類考生,在語言考試GRE、“美國高考”SAT中拿到近乎滿分,在生物奧林匹克競賽中超過99%的人類考生。

總體而言,目前這個基于對話訓練的GPT-4,在語言方面出類拔萃,但其數(shù)學水平似乎有待提高。

ChatGPT還沒玩明白,GPT-4怎么就要來了?AI發(fā)展的速度令人驚嘆甚至驚恐,我們是不是要失業(yè)了?而在AI引發(fā)的一些列疑問中,失業(yè)可能恰恰是最不急迫的那一個。

為什么不必擔心失業(yè)?

在圍棋中戰(zhàn)勝人類,在考試中取得滿分等等,還只是讓人把AI當作新鮮事來看待。然而當AI在簡單編程、旅游規(guī)劃、保費評估和診斷病情等具體場景下出色地完成任務時,做著同樣工作的人慌了。

AI不需要吃飯睡覺、沒有精神壓力,也無需勞動保障。按照內卷的邏輯,打工人豈不是要被這個AI“卷”走了?

這一切似曾相識,卻也有些不同。

工業(yè)革命后,機器給社會生產方式帶來了深刻的變革,大量人員下崗。但直到今天,也沒有幾個工廠能用得上比肩特斯拉超級工廠的生產方式。

一方面,機器取代了簡單的重復勞動,另一方面,有能力取代精密勞動的機器,成本極其高昂。

而不變的是,真正純粹的體力勞動和人工服務,將越來越貴。

面對AI是否會引發(fā)大規(guī)模失業(yè)的問題,答案是否定的。因為沒人想讓AI替代自己,打工人不想,老板和各國政府估計也不敢。

假設一家企業(yè)的老板執(zhí)意要把員工都替換成AI,那么老板是否懂得如何管理AI?該從哪里購買統(tǒng)籌AI的服務?

他最終仍然需要雇傭有能力使用AI輔助工作的員工。例如,科技巨頭企業(yè)微軟近期就設立了新職位——指令工程師(Prompt Engineer),專門負責與AI溝通。

即便是企業(yè)學會了活用AI,提高效率后進行裁員,也沒有國家敢接受大規(guī)模失業(yè)引發(fā)的政治風險。因為選票仍然在人們手中,若是發(fā)生大規(guī)模失業(yè)的情況,福利政策和救濟政策需要隨時跟進,這對各國政府來說都是不小的壓力。

更何況,AI的能力超出了人們想象,目前大多數(shù)國家、組織、個人對AI的態(tài)度都是謹慎、謹慎、再謹慎。

實際上,在ChatGPT出現(xiàn)前,每個人都已經主動或被動地擁抱AI十幾年了。

目前看來,用于消費領域的AI似乎不會造成直接的人員下崗,抖音、淘寶、美團、滴滴等這些互聯(lián)網平臺早已經在用AI為用戶提供服務。推薦人們感興趣的視頻或商品、安排外賣騎手接單、規(guī)劃路線等等,這些決策幾乎都有AI的參與,甚至全部被AI接管。

近十幾年來,AI就是這樣悄無聲息地接管了大量的工作,卻沒有引發(fā)大規(guī)模的失業(yè)。

類似問題其實早已有了案例。例如,讓人類邁入信息時代的計算機和互聯(lián)網,在剛出現(xiàn)的時候也足夠顛覆,然而今天,沒人會把自己的問題歸咎于電腦生產企業(yè)或互聯(lián)網本身。

此前,網絡上一種流行的說法也從側面展示出AI的局限性:“AI不能坐牢,所以不能替代會計”。

正因為AI不能負起相關責任,所以目前看來無法取代人。同理,AI法官和AI醫(yī)生的判斷有可能被廣泛接受嗎?不然未來所有的糾紛難道都要歸咎于OpenAI、谷歌、微軟這些企業(yè)嗎?

面對這樣的社會變革趨勢,有的人會覺得“禮崩樂壞”,但又不可能完全與AI割席,陷入沒有盡頭的精神內耗。而有想法的人則開始學習掌握訓練AI的能力,直到平臺推送的都是他想要的內容,俗稱“養(yǎng)號”。

△ 在平臺上隨便一搜,就有馴化AI的養(yǎng)號攻略。(圖源:社交媒體截圖)

可預見的未來是,AI想要在工作崗位上替代真人,將依舊是一個隱性的、謹慎的過程,能夠活用AI的打工人將具備更強的競爭力和議價能力。

對此,微軟德國執(zhí)行長Marianne Janik也曾表示,新的AI技術已經帶來新的變革,大多數(shù)人不需要換工作,而是要在此關鍵時刻學習AI讓自己成為專家,為企業(yè)的產品與服務增加價值。

他對企業(yè)家的建議則是,要開始訓練員工使用AI,這樣才能順利過渡到下一個世代。

顛覆認知的潛力與威脅

AI與人的不同之處,恰恰是它的魅力,也需要我們警惕。

通過攝入大量的信息,科學家們發(fā)現(xiàn),AI越來越像一個總是能蒙對答案,但寫不出解題步驟的學生。

2020年,麻省理工學院用AI發(fā)現(xiàn)了一種新的廣譜抗生素Halicin,它能殺死許多具備耐藥性的“超級細菌”,卻不會讓細菌產生耐藥性。

科學家們先是教AI了解抗生素分子的普遍規(guī)律,然后放手讓AI自行模擬了61000個分子,最終找到了Halicin。

△ 由AI找到的抗生素Hailicin。(圖源:社交媒體)

但整個事件給人帶來的震撼不是AI找得有多快多準,而是AI學生用科學家老師們至今都無法理解的解題方法,得出了Halicin這個正確結果。

這并非特例,早在AlphaGo大戰(zhàn)世界圍棋冠軍李世石時,人們就發(fā)現(xiàn)AI經常會走出一些人類棋手匪夷所思的走法。

現(xiàn)在,許多行業(yè)的前沿從業(yè)者和研究者都在使用AI,但絕大多數(shù)人并不知道AI為何如此抉擇。如果不及時反思或學習AI的方法論,這將是一件恐怖的事情。

不知道其方法論,那AI所做的一切真的正確嗎?如果AI能夠輕易完成科研成果、股票交易這些人類社會較高難度的任務,那么追求真理、犧牲精神、人心博弈等這些最具人性的行為又有何意義?

目前僅限于解決特定問題的AI也許還沒什么威脅,但等到AI發(fā)展到了廣泛處理各種事務,接管每個人的方方面面時,情況可能會變得讓人哭笑不得。

AI會綜合人們知道的、不知道的所有信息,為人們提供決策或建議,而人們可能根本沒有核實其對錯的能力。在一些小事上,會直接替人作出決策,就像AI現(xiàn)在推送個性化內容一樣。

最終,對絕大多數(shù)人而言,AI什么都知道,什么都做得比人好。這樣的良師益友,為何不盡情地依賴它?又或者會有人將其人格化,甚至將AI奉若“上帝”。

那些早就開發(fā)出AI,并供給資源調控其進化速度和方向的公司,也可能會被改名為“教會”。

屆時,今天那些沉溺于商品、短視頻推送算法,放棄思考、拒絕接受新觀點的人,可能最先成為“教徒”。人類社會或許也會面臨一輪新的啟蒙運動,重新?lián)肀Ю硇浴?/p>

這也正是基辛格、谷歌前CEO施密特和麻省理工學院計算機學院的院長胡滕洛赫爾在《AI時代:以及人類的未來》一書中強調的,“任何情況下,真正的決策權應該掌握在人的手里。”

掌握并駕馭AI

所幸,AI領域的先行者們,正在帶頭警惕AI取代人。

2月24日,開發(fā)ChatGPT的OpenAI發(fā)布了一則聲明,表態(tài)該公司正在謹慎地給AI發(fā)放學習資料,比如此前人們用的ChatGPT是基于GPT-3.5這個版本的應用,只收錄了截至2021年底的信息。

OpenAI還在聲明中表示,“我們希望就三個關鍵問題進行全球對話:如何管理這些系統(tǒng),如何公平分配它們產生的利益,以及如何公平分享使用權。”

1

△ GPT-3和GPT-4的區(qū)別是,后者不僅可以接收文字信息,還可以學習多媒體素材。(圖源:社交媒體)

目前,決定AI發(fā)展的三大因素是算力、算法和數(shù)據(jù)(教材),這些都需要人的參與。

算力是物質基礎,而這就牽扯到芯片。

GPT對芯片的需求是極大的,且需求量呈指數(shù)級增長。GPT-4上一代的GPT-3.5,訓練所需的芯片是英偉達的A100型號GPU(圖形處理器,俗稱顯卡),一顆大概要8萬元。

而完成整個訓練過程,大概需要30000顆A100芯片,也就是2.4億元。

要知道,訓練當年戰(zhàn)勝李世石的AlphaGO,也只用了176顆芯片。GPT-4的整個訓練過程需要要多少芯片,現(xiàn)在還未可知。

與此同時,訓練AI還特別耗電,ChatGPT據(jù)說訓練一次,就要消耗90多萬度電,相當于1200個中國人一年的生活用電量。目前,僅僅是維持日常運轉,每天的電費大概就要5萬美元。

此外,訓練AI的素材目前仍然需要人工篩選。AI該學什么,判斷是否正確,這些都需要一種名為數(shù)據(jù)標注師的工種。美國《時代周刊》在今年1月曾報道過,截止到2022年,全球已經有500萬名數(shù)據(jù)標注師。其中,許多人來自非洲國家,比如肯尼亞。

在算法上,目前的AI比前代更像人,也因此取得了更迅猛的進展。

以往的設計,是“人教給AI語法和詞匯,然后讓AI講話”。但語言模型本身就是模糊的,很多概念在人類社會中都沒有所謂“正確”的定義。

比如,什么是貓?每個人都可以輕易地判斷出貓的照片,但卻沒人能簡單地總結出判斷規(guī)則。有毛?尖耳朵?大眼睛?人類老師都不一定能解釋清楚,如何教給AI學生?

科學家最終發(fā)現(xiàn),直接把100萬張貓的照片丟給AI,AI就學會了判斷“什么是貓”。因此,現(xiàn)在的算法是把“日常對話”直接丟給AI,讓AI自己感受出一種“語感”。

有時,AI的辦法讓人琢磨不透,有時甚至能啟發(fā)人。

當前一個亟待解決的問題是,如何保障AI訓練數(shù)據(jù)的準確性?除了事實本身之外,編程語言都是經由英語輸入,AI只能“看懂英文教材”。這就意味著,如果要訓練ChatGPT回答中文問題,也無法保證不在翻譯上出現(xiàn)紕漏。

但拋開這些研發(fā)者的苦惱,對個人而言,ChatGPT或許將成為最好的學習工具,顛覆每個人接受教育的方式。

有問必答的ChatGPT可以從頭教你如何向它提問,這是一種對話式的學習。從孔子和蘇格拉底的時代開始,這種形式似乎就是“學習”最本真的樣子。而且在吸收了大量的知識后,ChatGPT甚至可以扮演孔子和蘇格拉底,直接與人們對話。

加州大學河濱分校2023年剛剛發(fā)布了一項研究,他們把《意識的解釋》的作者、美國認知科學家丹尼特的所有的書和文章都輸入給ChatGPT。研究者們讓ChatGPT扮演丹尼特,回答受試者的問題,并將丹尼特自己的回答也混入其中,讓受試者判斷。

結果,25個熟悉丹內特領域的哲學家平均正確率為51%,經常閱讀丹內特哲學博客的粉絲得分也差不多。也就是說,ChatGPT扮演的丹尼特已經到了真假難辨的程度。

現(xiàn)在,想閱讀一本書,ChatGPT不僅可以為人們推薦、做摘要,甚至能在一定程度上替代作者本人答疑解惑。

但作者本人并不會失去價值,他的新思想恰恰是ChatGPT學習的食糧,ChatGPT也將成為敦促他思考的動力。

就像機械普及后,人工服務的價值反而越來越高。AI普及后,人的價值或許也將愈發(fā)凸顯。

編者按:本文轉載自微信公眾號:時代周報(ID:timeweekly),作者:劉沐軒 

本文來源時代周報,內容僅代表作者本人觀點,不代表前瞻網的立場。本站只提供參考并不構成任何投資及應用建議。(若存在內容、版權或其它問題,請聯(lián)系:service@qianzhan.com) 品牌合作與廣告投放請聯(lián)系:0755-33015062 或 hezuo@qianzhan.com

p16 q0 我要投稿

分享:
標簽: GPT-4 失業(yè)

品牌、內容合作請點這里:尋求合作 ››

前瞻經濟學人

專注于中國各行業(yè)市場分析、未來發(fā)展趨勢等。掃一掃立即關注。

前瞻產業(yè)研究院

中國產業(yè)咨詢領導者,專業(yè)提供產業(yè)規(guī)劃、產業(yè)申報、產業(yè)升級轉型、產業(yè)園區(qū)規(guī)劃、可行性報告等領域解決方案,掃一掃關注。

前瞻數(shù)據(jù)庫
企查貓
作者 時代周報
財經自媒體
182887
關注
654
文章
4
前瞻經濟學人App二維碼

掃一掃下載APP

與資深行業(yè)研究員/經濟學家互動交流讓您成為更懂趨勢的人

研究員周關注榜

企查貓(企業(yè)查詢寶)App
×

掃一掃
下載《前瞻經濟學人》APP提問

 
在線咨詢
×
在線咨詢

項目熱線 0755-33015070

AAPP
前瞻經濟學人APP下載二維碼

下載前瞻經濟學人APP

關注我們
前瞻產業(yè)研究院微信號

掃一掃關注我們

我要投稿

×
J