版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

ChatGPT 引爆全網(wǎng)熱議!如果當(dāng)它是“聊天機器人”,那你可就錯了!

科普中國新媒體
原創(chuàng)
科普中國新媒體官方賬號
收藏

近日來,智能聊天機器人ChatGPT的出現(xiàn)引發(fā)眾多網(wǎng)友討論,那它到底是什么呢?2022年11月,人工智能公司OpenAI推出了一款聊天機器人:ChatGPT。它能夠通過學(xué)習(xí)和理解人類語言來進行對話,還能與聊天對象進行有邏輯的互動。除了聊天,ChatGPT還能夠根據(jù)聊天對象提出的要求,進行文字翻譯、文案撰寫、代碼撰寫等工作。

隨著ChatGPT被越來越多人認(rèn)識,大家也紛紛對ChatGPT進行測試,看它能不能幫助解決一些工作或生活中的小問題。比如有人想用它來寫文案:

圖片來源:微博用戶Jacob_Tech

還有人會用一些“夫妻問題”來考驗ChatGPT:

圖片來源:網(wǎng)絡(luò)

很多人都非常好奇,ChatGPT作為一個“聊天機器人”,為什么能有如此多的功能?其實,我們一直都理解錯了。嚴(yán)格來講,ChatGPT并不只是一個“聊天機器人”,而是一個以自然語言為界面的機器人。這是兩碼事。

去年12月初的時候,當(dāng)時ChatGPT剛剛上線不久,我就曾經(jīng)就這個問題進行過討論?,F(xiàn)在兩個多月過去了,國內(nèi)已經(jīng)到了“人人皆談GPT”的程度,在海外的技術(shù)圈里,這個話題反而已經(jīng)有點“過勁”了。

不過,基于ChatGPT的應(yīng)用,也已經(jīng)陸續(xù)出現(xiàn)。比如有人就用ChatGPT做了一個“會議秘書”程序,可以在視頻會議中實時形成會議紀(jì)要,最后連任務(wù)建議全都一并總結(jié)了——也許,過不了多久,各大公司里就會出現(xiàn)看不見摸不著的“神秘小秘”給一線員工分派工作任務(wù)的情況吧。

但ChatGPT的意義恐怕還遠不止于此。所以,“為什么ChatGPT是重要的”,這個問題,還是值得好好說一說。

雖然大多數(shù)人都只是將ChatGPT視為一個聊天機器人。但實際上,聊天機器人只是它的一個表現(xiàn)形式。**它實際上是大語言模型(LLM)的一個代表,一個“以自然語言為界面”的機器人。**這是不同的兩件事。

“作為一種服務(wù)的自然語言界面”,這并不是一個常見的概念——然而,這件事每天都在發(fā)生。一個人受教育的過程就是如此:我們不停地訓(xùn)練自己,把書本上的內(nèi)容翻譯成自己可以理解的自然語言。

但是你有沒有想象過這樣一種場景呢——看書的時候,突然有一個精靈浮現(xiàn)在書本上,對你說:“我是這本書里的結(jié)構(gòu)化知識的對話界面。我了解這本書的全部內(nèi)容。關(guān)于這本書,你有什么問題都可以問我?!苯酉聛?,你就可以通過深入的溝通(聊天)逐步了解了這本書中所包含的知識。在把這些知識投入實際應(yīng)用的過程中,你也可以隨時通過“聊天”的方式,引入這個“精靈”的幫助。

這個場景是不是聽起來很誘人?

不過,你或許很少有機會聽到人們談?wù)擃愃频男枨?。就像大多?shù)新事物一樣,在它誕生之前人們存在類似的需求,但很可能從來沒有想過,這樣的需求可以如此被實現(xiàn)——這怎么可能呢?

這當(dāng)然有可能,因為人們已經(jīng)習(xí)慣于用一種極為昂貴的方法,來提供這樣的作為“一種服務(wù)”的自然語言界面了:為了給教材一個這樣的界面,人們發(fā)明了“教師”;為了給財報一個這樣的界面,人們發(fā)明了“基金經(jīng)理”;為了給法律文書一個這樣的界面,人們發(fā)明了“律師”……事實上,幾乎所有現(xiàn)代經(jīng)濟中的“專業(yè)人士”,或多或少都可以被看做是這樣的“一種服務(wù)”。他們把結(jié)構(gòu)化的信息轉(zhuǎn)譯成了自然語言。這么一來,這些信息就可以被討論、被詰問、被辯難,然后再被對手方轉(zhuǎn)譯回結(jié)構(gòu)化的信息。
現(xiàn)在,以 ChatGPT 為代表的語言模型卻宣告說:這件事是可以被機器做到的。不是“無中生有”地創(chuàng)造信息,而是對已有信息的準(zhǔn)確的歸納、總結(jié)、舉例,甚至在不同結(jié)構(gòu)之間切換——這就是為什么前天微軟總裁納德拉(Satya Nadella)說,這是新的工業(yè)革命的原因吧——我傾向于同意他。因為“信息流通轉(zhuǎn)譯”的服務(wù)的價格在一夜之間被徹底改變了——“信息流通轉(zhuǎn)譯”服務(wù)雖然不是信息本身,卻是現(xiàn)代經(jīng)濟的血脈。

不過,也有許多專業(yè)人士不認(rèn)為大語言模型有智能。最有代表性的可能是圖靈獎得主楊立昆(Yann Lecun)。最近,咆哮著痛斥 ChatGPT 已經(jīng)成了他近期的“每日功課”。前兩天,他還發(fā)了一條推特說:“任何一只貓所掌握的常識都比任何今天的大語言模型更多?!庇腥嗽谠u論里弱弱地問:“你家的貓也能寫 Python 嗎?”他則回復(fù)說:“寫 Python 算個**智能。”
我不會說貓的任何壞話(當(dāng)然也不會說 Python 的任何好話),所以,我只能說他說得對。但請注意,這是沒什么意義的正確?!鞍肜又悄堋币部梢杂袑嶋H的用處。語言模型并不需要“在本質(zhì)上了解世界”,只要“裝做了解”并且能夠侃侃而談就可以了。畢竟很多網(wǎng)絡(luò)大V(以及麥肯錫和德勤的咨詢師們)能做的也不過如此。
實際上,在最近兩個月里,我看到了很多有趣的語言模型應(yīng)用。它們不一定是 ChatGPT,有些和它甚至是競爭關(guān)系。在這些例子里,你可以明顯看到它們是怎樣搭建在兩種信息結(jié)構(gòu)之間形成橋梁的:有一個應(yīng)用針對生物醫(yī)學(xué)文獻,它可以和你討論文獻內(nèi)容;有一個應(yīng)用訓(xùn)練在美國哲學(xué)家丹內(nèi)特(Daniel Dennett)的著作上,可以偽裝成這個哲學(xué)家本人和你討論哲學(xué)問題;有一個建立在知識引擎Wolfram Alpha上的接口,讓你可以用自然語言(甚至使用話筒)提出數(shù)學(xué)問題(注意,它背后是極其專業(yè)的Wolfram Alpha?。挥幸粋€應(yīng)用,只要你輸入一個網(wǎng)頁,它就可以幫你以 Q&A 卡片形式生成內(nèi)容摘要;有一個應(yīng)用,如果你提問,它就可以幫你進行利弊決策分析;有一個應(yīng)用,你上傳不超過60頁的PDF文檔,它就可以幫你總結(jié)內(nèi)容……
當(dāng)你急于指出 ChatGPT 的弱點(太多了)的時候,有必要想到的是:首先,這里有些是 ChatGPT 這個特定產(chǎn)品的問題而未必是大語言模型的問題(比如很多人不喜歡 ChatGPT 不給出參考文獻,但它的一個競品就會給);其次,也是更重要的是,這個領(lǐng)域在接下來的幾個月和幾年里會因為大量資金的投入突飛猛進。畢竟,AlphaGo 剛推出的時候也有人嘲笑說它連歐洲圍棋冠軍都下不贏,但重點在于“它竟然有資格跟歐洲圍棋冠軍下棋了”。
同樣的,當(dāng)你抱怨 ChatGPT 鬼話連篇滿嘴跑火車的時候,這可能有點像你看到一只猴子在沙灘上用石頭寫下1+1=3。它確實算錯了,但這不是重點。

它有一天會算對的。

在本文的最后,我需要特別強調(diào)的一點是,ChatGPT最重要的競品,由Google公司推出的Bard已經(jīng)正式上線。很多已經(jīng)使用過這款產(chǎn)品的人表示,它比ChatGPT更強大。

一切皆有可能。

作者|木遙(數(shù)學(xué)博士、原Google工程師)審核|于旸 騰訊玄武實驗室負(fù)責(zé)人

內(nèi)容資源由項目單位提供

評論
曲一線
大學(xué)士級
閱讀
2023-11-13
飛馬騰空
太師級
2023-02-22
科普中國俄體鎮(zhèn)023
太師級
2023-02-21