|
ChatGPT或GPT4并沒有什么令人驚訝或者秘不可宣的地方,除了它們可以公之于眾這一事實之外。 請大家平靜一下。對生成式人工智能技術(shù)進步的興奮已經(jīng)達到了狂熱的程度,隨之而來的是一系列極端的擔(dān)憂。散布恐懼者分為了兩大陣營:要么認為人工智能很快就能創(chuàng)造一個巨大的反烏托邦未來,要么認為它即將對人類的生存構(gòu)成威脅。 上個月,包括埃隆·馬斯克(Elon Musk)和一些人工智能大師在內(nèi)的一群科技業(yè)高管,呼吁暫停開發(fā)先進的人工智能系統(tǒng)6個月,以便該行業(yè)能夠建立針對有害結(jié)果的保障措施,這讓這場危機火上澆油。這些科技業(yè)高管呼吁暫停創(chuàng)新既是前所未有的,也是毫無必要的。 《巴倫周刊》科技欄目最近就人工智能的現(xiàn)狀、ChatGPT 的興起以及為什么要求暫停人工智能研究是錯誤的觀點,與Meta Platforms(META)首席人工智能科學(xué)家楊立昆(Yann LeCun)進行了交流。 楊立昆是人工智能行業(yè)最杰出的科學(xué)家之一,他一直直言不諱地批評那些夸大 ChatGPT 等人工智能聊天機器人所使用的基礎(chǔ)技術(shù)能力的人。 他是紐約大學(xué)(New York University)的教授,2013年加入了 Facebook (現(xiàn)在改名為Meta)。與杰弗里 · 辛頓(Geoffrey Hinton)和約書亞 · 本吉奧(Yoshua Bengio)一起,楊立昆因圍繞深度學(xué)習(xí)技術(shù)的研究而獲得了2018年 ACM 圖靈獎——計算機領(lǐng)域的諾貝爾獎,這些技術(shù)已經(jīng)成為現(xiàn)代人工智能技術(shù)的基礎(chǔ)。這三位科學(xué)家因其在人工智能領(lǐng)域中的工作而經(jīng)常被稱為“人工智能教父”。以下是我們與楊立昆經(jīng)過編輯后的談話摘錄。 ![]() 《巴倫周刊》:請解釋一下 ChatGPT 和大型語言模型(LLM)背后的技術(shù)是如何工作的? 楊立昆:你可以把它想象成一個超級強大的預(yù)測鍵盤。大型語言模型首先要對大量的單詞進行訓(xùn)練,我們向模型展示一個單詞窗口,并詢問它下一個單詞是什么,它將預(yù)測下一個單詞,填入這個單詞,然后問自己下一個單詞是什么。 《巴倫周刊》:這些模型擅長什么,又不擅長什么? 楊立昆:它們適用擔(dān)任寫作助手,可以幫助你用正確的語法風(fēng)格來表述事情。但是對于回答事實類問題,它們干得并不是很好,因為這種模型要么是反芻存儲在其記憶中的內(nèi)容,要么是反芻一些類似于它在訓(xùn)練數(shù)據(jù)中讀取的各種內(nèi)容的組合或者插值,這意味著它可能會發(fā)生事實上的錯誤,或者它只是在編造一些聽起來不錯的東西。 《巴倫周刊》:為什么人工智能聊天機器人有時在準確性方面存在這么大的問題? 楊立昆:當(dāng)你擁有一個基本上是這樣一個字一個字地預(yù)測的系統(tǒng),你就很難進行控制或者操縱,因為它們會產(chǎn)生什么,完全取決于它們訓(xùn)練的統(tǒng)計數(shù)據(jù)和給定的提示。 在數(shù)學(xué)上來說,它很有可能與正確答案的路徑呈現(xiàn)出指數(shù)性的偏離,它生成的答案越長,最終答案是徹頭徹尾的垃圾的可能性就越大。 《巴倫周刊》:你為什么如此反對要求人工智能開發(fā)中止六個月的信? 楊立昆:我同意人工智能是一項強大的技術(shù),必須負責(zé)任和安全地部署和開發(fā)。但我不認為停止研究和開發(fā)六個月是正確的答案。這根本無濟于事,而且也非常天真,因為沒有人會這么做。 讓我們來看看在這封信上簽名的人的類別。第一類是最令人震驚的: 真正的末日預(yù)言家。他們說我們正在制造的機器最終會像人類一樣聰明。而一旦發(fā)生這種情況,人類就完了。 我覺得這太愚蠢了。而且他們肯定搞錯了。這是基于人工智能系統(tǒng)不易控制、很難提出符合人類價值觀的目標的想法。但我們可以設(shè)計目標,以便它們能夠正確行事。 第二類是擔(dān)心直接傷害的人。有了大型語言模型,你可以產(chǎn)生無意義和錯誤的信息。一些人擔(dān)心互聯(lián)網(wǎng)將被機器生成的內(nèi)容所淹沒,這些內(nèi)容具有誤導(dǎo)性,用戶可能會被洗腦。我也不相信這種情況,因為它已經(jīng)存在了。人們的適應(yīng)能力很強,他們已經(jīng)學(xué)會了如何應(yīng)對新媒體。 第三類是擔(dān)心少數(shù)科技公司生產(chǎn)的人工智能產(chǎn)生的系統(tǒng)性社會影響。我還是不同意這種觀點。部分原因是因為我為Meta工作,我能從內(nèi)部看到科技公司的動機是什么。 《巴倫周刊》:OpenAI 的技術(shù)與 Google、Meta和其他初創(chuàng)企業(yè)的 AI 技術(shù)相比如何? 楊立昆:OpenAI 似乎有點走在了游戲的前面,因為他們比其他人更早地開始訓(xùn)練那些大型系統(tǒng),并根據(jù)用戶反饋進行微調(diào)的過程。但是 ChatGPT 或 GPT4并沒有什么令人驚訝或者秘不可宣的地方,除了它們可以公之于眾這一事實之外。 自然語言理解并不是一項新技術(shù)。這是相同的技術(shù),transformer(機器學(xué)習(xí)模型)的整個想法來自谷歌。Meta、谷歌和一些初創(chuàng)公司的很多人已經(jīng)開始研究這項技術(shù),有成百上千的科學(xué)家和工程師知道如何搭建這些東西。 你之所以沒有(更早)在谷歌和 Meta 上看到類似的系統(tǒng),是因為對于一家大公司來說,推出一個不完全可靠、可以發(fā)布無稽之談的系統(tǒng),會對其聲譽造成更大的危險。 《巴倫周刊》:當(dāng)機器能夠自己學(xué)習(xí)和思考時,我們是否已經(jīng)接近通用人工智能(AGI)? 楊立昆:有人聲稱,通過擴展這些大型語言模型系統(tǒng),我們將達到人類的智力水平。我的觀點是這是完全錯誤的。有很多事情我們不明白,比如我們還不知道如何用機器進行再生產(chǎn)——有些人稱之為 AGI的東西。 我們不能使用像 ChatGPT 或 GPT4這樣的技術(shù)來訓(xùn)練機器人清理桌子或者填滿洗碗機,即使這對一個孩子來說是一件微不足道的任務(wù),我們還是做不到。我們?nèi)匀粵]有實現(xiàn)L5級(完全)自動駕駛。這需要一套完全不同的技能,你無法通過閱讀文本來進行學(xué)習(xí)。 《巴倫周刊》:什么時候有可能? 楊立昆:未來五年,我們將取得重大進展。但我不認為我們能達到人類的智力水平,這還需要很長時間。每次出現(xiàn)這種預(yù)測時,我們都低估了人類智力的復(fù)雜性。 《巴倫周刊》:謝謝你的時間,楊。 文|金泰 編輯|喻舟 |
|
|
來自: 王兆善 > 《人工智能技術(shù)》