近期,美國人工智能研究實驗室OpenAI發(fā)布了一種基于人工智能技術的自然語言處理模型ChatGPT,它能夠通過學習和理解人類的語言來與用戶進行交流。由于其功能強大,智能表現(xiàn)遠超此前同類產(chǎn)品,成功引發(fā)了破圈效應。ChatGPT上線僅5天,注冊用戶數(shù)就超過百萬,截至目前,用戶數(shù)已破億,給全世界各個國家、各行各業(yè)都帶來了不小沖擊。針對這個全球熱點,智能算法研究中心的老師和同學們各抒己見,開展了一次熱烈的討論。
Prof. Huang:
ChatGPT實際上是一個加了人機交互的搜索。與谷歌、百度等搜索引擎相比,它更強大的地方在于對自然語言處理的理解,即快速理解輸入語句的正確語義,準確知道你真正的意圖,可以找到更有深度、更多的內(nèi)容。換句話來說,其實它并不是在搜索技術上的進步,而是在自然語言處理上的進步。只要知道你的意圖,就能給你提供對應的信息。比補全信息更難得的是它能知道你想問什么。今天就請每位同學圍繞ChatGPT,結(jié)合你們的研究或者你們能想到的后續(xù)改進,講一講自己的看法,然后大家可以進行討論。
Zahid:
下面,我先講一下我對ChatGPT的一些認識和了解。我查看了ChatGPT的官網(wǎng),發(fā)現(xiàn)官網(wǎng)介紹中提到了訓練ChatGPT的三個步驟,但在這三個步驟之前還有一個容易被忽視的前置步驟,即ChatGPT是在預訓練模型的基礎上訓練得到的。預訓練時使用的大規(guī)模數(shù)據(jù)集是ChatGPT的知識來源,而預訓練之后訓練ChatGPT的三個步驟則是對ChatGPT的微調(diào),可以理解為我們在教會ChatGPT如何運用前面得到的知識來回答問題。
雖然目前還沒有與ChatGPT相關的論文成果,但ChatGPT是通過在InstructGPT基礎上換用更新的GPT模型和數(shù)據(jù)集進行訓練所得到的,因此我們也可以從InstructGPT的論文中了解到ChatGPT的微調(diào)過程。微調(diào)過程中所使用的問答數(shù)據(jù)集可被劃分成很多不同的類別,如講故事、日常對話等,基本覆蓋了常見的問答類型,因此ChatGPT才能在面對各種類型的提問時對答如流。
除了問答數(shù)據(jù),ChatGPT的回答還有一個重要的影響因素——評價。ChatGPT的訓練框架是強化學習,因此存在一個模塊對ChatGPT的回答進行評價以決定對它的獎勵或懲罰,引導ChatGPT生成評價較高的回答。而這一評價模塊是通過擬合人類對部分問答數(shù)據(jù)的評價得到的,使該模塊可以模擬人類的偏好對回答進行評分,最終引導ChatGPT生成符合人類偏好的回答。這一評價模塊在ChatGPT中顯得尤為重要,但我認為其訓練過程可能會存在擬合不準確和引入偏見的問題,這將使得ChatGPT的回答不一定可靠。
Herbert:
上一個同學可能主要是從網(wǎng)絡結(jié)構(gòu)的角度分享了他的一些看法。我想從以下兩方面說一下我的看法:一是可解釋性問題。ChatGPT畢竟是基于深度網(wǎng)絡的,其實它的可解釋性不是特別強,如果應用到實際中,應該也會出現(xiàn)可解釋性弱的問題。二是我認為ChatGPT在道德和倫理方面可能也存在一些問題。比方說有些學生利用ChatGPT完成作業(yè),這違背了老師讓學生通過寫作業(yè)溫習知識的初衷。此外,假設我們問ChatGPT對于自殺的看法,如果它給出一些負面的回答,也可能對整個國家或者社會產(chǎn)生不良的影響。關于ChatGPT的改進,我個人認為可以從深度學習的可解釋性問題上做一些研究,嘗試解決現(xiàn)存的一些弊病。
William:
我對ChatGPT的看法和剛才那位同學差不多,我也是考慮到它所引發(fā)的道德倫理方面的一些問題。現(xiàn)在已經(jīng)有人用ChatGPT寫論文,甚至把它當作論文作者。目前國際機器學習大會(International Conference on Machine Learning, ICML)等會議以及一些期刊已經(jīng)禁止使用這種大型預訓練模型來輔助寫論文。ChatGPT無疑是人類科技發(fā)展史上一個比較強大的模型,但是它對倫理道德的挑戰(zhàn)也是不容忽視的。
我認為可以從以下兩方面對ChatGPT進行改進:首先,可以改進ChatGPT所使用的神經(jīng)網(wǎng)絡模型。現(xiàn)有的神經(jīng)網(wǎng)絡模型很難加入規(guī)則性的內(nèi)容,不像“機器人三原則”這樣的內(nèi)容可以在程序里寫定。正如上一位同學所說的,當前的神經(jīng)網(wǎng)絡幾乎沒有可解釋性,很難將規(guī)則性的內(nèi)容加入其中,因此ChatGPT如何應對倫理道德上的挑戰(zhàn)是一個很大的問題。其次,我們不得不考慮ChatGPT可能對社會造成的影響。現(xiàn)在ChatGPT 給人們一種人工智能可以從各方面取代人工的危機感。未來可能出現(xiàn)ChatGPT2、ChatGPT3等更加強大的模型,可以自己進行算法設計和神經(jīng)網(wǎng)絡設計,甚至對神經(jīng)網(wǎng)絡進行可解釋性分析,從而取代人工智能科學家,這也是我們可能面臨的人工智能危機。
Conley:
在我看來,ChatGPT更像是一個知識表示編碼和存儲的大型機器。ChatGPT的創(chuàng)新很大程度上是工程層面的,而不是學術層面的。從知識的編碼表示和存儲上看,ChatGPT并沒有做出太大貢獻,它主要是把一些不同的模型、訓練策略以及數(shù)據(jù)獲取的手段整合到一起,最后形成一個通用的大型模型。
此外,我認為ChatGPT的成功也離不開其背后公司的宣傳和推廣。之前可能有一些研究所、學校或者公司做了功能類似ChatGPT的軟件平臺,但沒有進行很好的宣傳,功能上可能也不如ChatGPT強大,所以沒有出圈。
在我們?nèi)祟悓υ掃^程中,獲取知識的過程不是平面的,而是立體的。比方說我跟你展開一個關于數(shù)學的討論,我可能會從中聯(lián)想到物理、化學、政治等其他學科的知識,甚至生活中的一些常識和變化。也就是說,我跟你在某個學科或者專業(yè)領域上的討論可能會同時推動我在其他方面的一些進步。但是ChatGPT是用已有的一些模型去做知識表示的,我覺得可以嘗試用圖學習、因果學習等方式幫助ChatGPT建立更豐富、更高效的知識表示體系。目前對這種大模型的訓練還是比較費時費力的,如果能夠在知識表示和編碼方面提高效率,或許可以促進大模型訓練方式的改進,節(jié)省時間和算力資源。
另外,我查閱資料時發(fā)現(xiàn),ChatGPT不光被運用在人機對話和問答方面,還被很多人用在編碼和Debug上,而且在這方面表現(xiàn)突出。我認為ChatGPT對程序的理解和對日常對話的理解應該是不太一樣的,我不太清楚這種理解上的差異是在學術上做了一些創(chuàng)新,還是在工程上做了一些突破,目前還沒有查到相關資料,這是值得關注的。
Jane:
我也是從系統(tǒng)的角度來考慮的。我在資料上看到ChatGPT可以在一定程度上幫助開發(fā)者進行需求分解和設計決策,這和我的研究緊密相關。于是,我直接試用了一下ChatGPT,請它根據(jù)一段需求文本繪制一個活動圖,結(jié)果是它會返回一個圖片的URL地址,但是這個圖片是不能顯示的。我推測這并不是ChatGPT通過提取需求文本中的信息繪制的圖片,而是根據(jù)它學習到的內(nèi)容給出了一個與活動圖相關的圖片名稱。ChatGPT是基于數(shù)據(jù)驅(qū)動的,但它可能并不具備真正的對復雜問題的推理能力。換句話說,ChatGPT具備廣泛的知識面,能夠很好地回答一些網(wǎng)上能搜索到答案的問題,但是并不能真正理解一些算數(shù)、算法等邏輯問題。比方說,如果你想讓ChatGPT計算進行四則運算,那么它可以給出正確的結(jié)果;但是如果你想讓它求解一道你出的小學數(shù)學相遇問題或者追及問題,那它就只能反饋給你一些通用的解法描述,還可能存在邏輯混亂的問題,更不用說幫你計算出正確答案了。這是我認為ChatGPT存在的最大缺陷和可以改進的地方。
Lawrence:
我也從工程和實驗兩方面講講我的看法。在工程上,由于先驗數(shù)據(jù)中可能包含一些噪聲,有些自然語言處理相關的模型可能會被“教壞”,在測試數(shù)據(jù)上的表現(xiàn)不如在訓練數(shù)據(jù)上的表現(xiàn),在對話中給出的回答不一定正確。如何去糾正這些錯誤,可能是在工程上可以去探索的一個問題。另外,在做實驗時,我建議考慮以下兩點:第一,如何獲取訓練用的數(shù)據(jù)集;第二,需要評估算力,比如訓練一個模型所需要的時長,做好時間規(guī)劃。
Mike:
我想分享一下關于ChatGPT版權(quán)方面的一些觀點。之前AI繪畫被批評就是因為其所使用的訓練圖片都是其他畫手有版權(quán)的作品。其實文字也一樣有版權(quán)。比方說,很多人在網(wǎng)上發(fā)布博客、文章等內(nèi)容,如果其中使用了他人的內(nèi)容,一般都會標注引用來源。由于神經(jīng)網(wǎng)絡的可解釋性差,ChatGPT回答問題時使用的語句來源不明,我們難以說清楚它是否具有版權(quán),在商用的情況下是否會引發(fā)侵權(quán)問題。所以,我覺得機器學習的可解釋性可能不僅僅是一個錦上添花的東西,在一些版權(quán)相關或者對可靠性要求較高的應用上是十分必要的。我們需要明確AI所輸出答案的來源和原因。
Zahid:
我除了從網(wǎng)絡結(jié)構(gòu)分析ChatGPT,還做了一些小測試和小實驗。我發(fā)現(xiàn)ChatGPT在回答問題時結(jié)合了上下文信息,后面輪次的對話會跟前面的對話相關。此外,ChatGPT有時候是類似指令驅(qū)動的,我問什么,它就答什么。比方說,我嘗試請它跟我下五子棋,它的回答是“可以”,然后就沒有下文了,也沒有任何提示。我假設存在一個棋盤網(wǎng)格,我接著輸入一個坐標,說“我下好了”,它可能說“好,你下在這里,接下來該下一個人了”,然后又沒有下文了。我說“該你下了”,它才可能會回應我一個下棋位置的坐標。我感覺它并沒有真正理解自己接下來應該做什么。
不知道屏幕前的你對ChatGPT了解多少?歡迎將你的獨到見解發(fā)布到評論區(qū),跟我們一起討論!
總編:黃翰
責任編輯:袁中錦
文字:智能算法研究中心成員
圖片:袁中錦
校稿:何莉怡
時間:2023年2月9日