|
《巴倫周刊》最近與Meta首席人工智能科學家Yann LeCun就AI的發(fā)展做了交流。LeCun是AI行業(yè)最杰出的科學家之一,2018年圖靈獎獲得者。 他認為人們對ChatGPT的影響顯然是反應過度了。他的一些觀點也許可以使我們冷靜一些。
一,最終答案可能是徹頭徹尾的垃圾
大型語言模型LLM的運作就像一個超級的預測鍵盤。首先要對大量的單詞進行訓練。模型基本上就是一個字一個字進行預測的系統(tǒng),它們會產生什么,完全取決于訓練的統(tǒng)計數(shù)據(jù)和給定的提示。 這決定了它們適用擔任寫作助手,可以幫助你用正確的語法風格來表述事情。
但這種模型要么反芻存儲在記憶中的內容,要么反芻在訓練中讀取的內容組合,意味著可能會發(fā)生各種事實錯誤,或者只是在編造一些東西。在數(shù)學上來說,它很有可能與正確答案的路徑呈現(xiàn)出指數(shù)性的偏離。生成的答案越長,最終答案可能越是徹頭徹尾的垃圾。
二,ChatGPT沒有太大新意
和谷歌、Meta這些公司比,OpenAI看來確實領先了一步,但ChatGPT或GPT4這種產品并沒有太大新意。自然語言理解并不是一項新技術。transformer(機器學習模型)整個想法來自谷歌。
Meta、谷歌的很多人早就開始研究這項技術,有成百上千的科學家工程師知道如何搭建。谷歌和Meta沒有更早的推出類似系統(tǒng),是因為對于一家大公司來說,推出一個不完全可靠、可以發(fā)布無稽之談的系統(tǒng),會對其聲譽造成很大風險。
三,達到人類智力水平還很遙遠
有人說這些LLM系統(tǒng)擴展后將達到人類的智力水平,這是完全錯誤的看法。 ChatGPT這樣的技術無法用來訓練機器人清理桌子或者填滿洗碗機,但這對一個孩子來說卻是件微不足道的任務。我們還做不到。
我們還沒有實現(xiàn)L5級(完全)自動駕駛,這需要完全不同的技能,你無法通過閱讀文本來進行學習。未來五年我們會取得重大進展。但我認為還無法達到人類的智力水平,這需要非常漫長的時間。 每次出現(xiàn)這種預測時,我們都低估了人類智力的復雜性。
Source: https://twitter.com/raycat2021/status/1649768488200994820?s=46&t=BjcDDdD725JphbcxjVzW2A (https://twitter.com/raycat2021/status/1649768488200994820?s=46&t=BjcDDdD725JphbcxjVzW2A)
|