作者:洪永淼 中國科學院大學經(jīng)濟與管理學院院長(來源:清華服務(wù)經(jīng)濟與數(shù)字治理研究院)2月18日,2023年春季首屆中國數(shù)字經(jīng)濟發(fā)展和治理學術(shù)年會在清華大學順利舉辦。會議由清華大學經(jīng)濟管理學院、公共管理學院和計算社會科學與國家治理實驗室承辦。中國科學院大學經(jīng)濟與管理學院院長洪永淼教授在大會發(fā)表題為《人工智能新近發(fā)展及其對經(jīng)濟學研究范式的影響》的主旨演講。本文根據(jù)洪永淼教授現(xiàn)場發(fā)言內(nèi)容整理。 今天主要和大家一起交流人工智能新近發(fā)展,特別是ChatGPT的發(fā)展理念與方法論,對經(jīng)濟學研究范式的影響。 一、數(shù)智時代的基本特征 在數(shù)智時代,大數(shù)據(jù)為人類社會提供了認識世界、改造世界的新思維,即大數(shù)據(jù)思維。大數(shù)據(jù)思維是通過大數(shù)據(jù)去發(fā)現(xiàn)、理解現(xiàn)實復(fù)雜系統(tǒng)的運行狀態(tài)與發(fā)展規(guī)律,分析、解決現(xiàn)實問題,探索、預(yù)測未來變化趨勢的新范式、新方法、新工具。大數(shù)據(jù)思維與現(xiàn)代經(jīng)濟學的主流研究范式是一致的。現(xiàn)代經(jīng)濟學的主流研究范式是實證研究,以數(shù)據(jù)為基礎(chǔ),應(yīng)用計量經(jīng)濟學方法推斷經(jīng)濟變量之間的邏輯關(guān)系尤其是因果關(guān)系,從而揭示經(jīng)濟的運行規(guī)律。大數(shù)據(jù)思維的實現(xiàn)方式是人工智能,特別是機器學習。 那么,以ChatGPT為代表的人工智能先進技術(shù)的發(fā)展理念與方法論,會對經(jīng)濟學的研究方法與研究范式產(chǎn)生什么潛在影響? 二、ChatGPT與大模型范式 ChatGPT的方法論是“規(guī)模至上”,其算法基礎(chǔ)是大語言模型。大模型是參數(shù)維數(shù)極大的模型,這些參數(shù)需要通過數(shù)據(jù)訓練或估計。大語言模型是指輸入數(shù)據(jù)主要為文本數(shù)據(jù)的大模型。實際上,大語言模型在深度學習發(fā)展階段就已出現(xiàn)。隨著人工神經(jīng)網(wǎng)絡(luò)模型的隱藏層不斷增加,其參數(shù)數(shù)量呈現(xiàn)快速增長。文本數(shù)據(jù)本質(zhì)上是高維或超高維數(shù)據(jù),簡約模型無法刻畫異質(zhì)性高維數(shù)據(jù)的特征,因此需要使用大語言模型。從計量經(jīng)濟學視角看,大模型最主要優(yōu)點是系統(tǒng)偏差比較小。同時,由于ChatGPT的訓練數(shù)據(jù)主要來自互聯(lián)網(wǎng)文本數(shù)據(jù),樣本容量極其龐大,從而保證了大語言模型參數(shù)的估計精度。因此,大語言模型具有比較強的泛化能力,即樣本外預(yù)測能力。 長期以來,計量經(jīng)濟學與統(tǒng)計學面臨的一個困擾是“維數(shù)災(zāi)難”:當模型參數(shù)維數(shù)相比數(shù)據(jù)容量不是很小時,雖然模型偏差比較小,但因為參數(shù)維數(shù)大,在有限數(shù)據(jù)容量條件下,對每個參數(shù)的估計不甚精準,導(dǎo)致模型過度擬合,其樣本外預(yù)測能力較差?!熬S數(shù)災(zāi)難”不僅存在于計量經(jīng)濟學與統(tǒng)計學,在社會科學和自然科學很多領(lǐng)域也存在。ChatGPT通過使用海量互聯(lián)網(wǎng)大數(shù)據(jù),確保訓練數(shù)據(jù)容量遠大于模型參數(shù)維數(shù),從而避免了“維數(shù)災(zāi)難”。 三、大模型與經(jīng)濟學研究范式 作為學術(shù)研究的好助手,ChatGPT可大幅提高研究效率。在經(jīng)濟學研究中,可借助ChatGPT搜索信息、收集數(shù)據(jù)、撰寫文獻綜述、編寫代碼、檢查程序、設(shè)計實驗方案、翻譯文本等。雖然目前ChatGPT的表現(xiàn)仍有不少缺點,其整體智能水平與人類相比尚有不小的差距,但可以預(yù)計,隨著人工智能技術(shù)的發(fā)展以及ChatGPT廣泛應(yīng)用的經(jīng)驗積累,ChatGPT的智能程度在很多方面將日益接近甚至超過人類。ChatGPT及其大模型方法論可能會對經(jīng)濟學乃至整個社會科學產(chǎn)生深遠影響。 比如,ChatGPT與大模型將對計算經(jīng)濟學產(chǎn)生較大影響。計算經(jīng)濟學與計算金融學已存在相當長一段時間。經(jīng)濟學是一個比較復(fù)雜的系統(tǒng),數(shù)學經(jīng)常無法給出解析解,這時就必須用到計算機模擬仿真方法,經(jīng)濟學家比較熟悉的有可計算一般均衡模型和基于主體的模型(Agent-Based Model)。近十年出現(xiàn)的計算社會科學就是一種數(shù)據(jù)密集型研究范式。再如,ChatGPT與大模型將對經(jīng)濟學的理性經(jīng)濟人假設(shè)產(chǎn)生較大影響。實驗經(jīng)濟學研究表明,人類經(jīng)濟行為并不滿足完全理性假設(shè),更多表現(xiàn)為有限理性,甚至存在預(yù)期偏差。但是,ChatGPT能夠改進理性經(jīng)濟人假設(shè),基于人工智能或人工輔助的決策有可能成為計算經(jīng)濟學的一個重要研究方向,比如提供理想?yún)⒄障?、定量政策評估以及進行人工智能決策等。 我今天重點探討ChatGPT與大模型將對計量經(jīng)濟學產(chǎn)生的深遠影響。計量經(jīng)濟學有兩個原則,一個是簡約模型原則,即如果能用最簡單的模型去總結(jié)最多的數(shù)據(jù),那就是最好的統(tǒng)計模型;另一個是充分性原則,用低維統(tǒng)計量總結(jié)樣本信息。20世紀,統(tǒng)計學存在參數(shù)與非參數(shù)建模的方法論之爭。統(tǒng)計學家Ronald Fisher認為非參數(shù)模型因其參數(shù)維數(shù)高而估計不精確,主張使用參數(shù)維數(shù)較少的參數(shù)模型;另一位統(tǒng)計學家Karl Pearson則關(guān)注參數(shù)模型可能誤設(shè)而產(chǎn)生較大偏差,主張使用非參數(shù)模型。計量經(jīng)濟學也有類似爭論。2003年諾貝爾經(jīng)濟學獎得主Robert Engle主張從特定模型出發(fā),通過檢驗遺漏變量等計量經(jīng)濟學方法拓展模型,這是所謂的“從特殊到一般”的建模方法;而倫敦計量經(jīng)濟學派代表人物David Hendry則主張從高維的一般模型出發(fā),通過統(tǒng)計學假設(shè)檢驗與經(jīng)濟理論約束條件等方法得到特定模型,這是所謂的“從一般到特殊”的建模方法?!皬囊话愕教厥狻钡慕7椒ǜm合大數(shù)據(jù)分析,更接近數(shù)據(jù)驅(qū)動研究范式。但是,兩種建模方法的最終目的都是獲得一個具有經(jīng)濟可解釋性的簡約模型,參數(shù)不多且有經(jīng)濟含義,同時擁有良好的樣本外預(yù)測能力。為了獲得簡約模型,計量經(jīng)濟學與統(tǒng)計學提出了很多經(jīng)典降維方法,比如主成分分析、因子模型、模型選擇、經(jīng)濟理論約束等。在大數(shù)據(jù)時代,由于潛在解釋變量或預(yù)測變量很多,新的統(tǒng)計降維方法也不斷產(chǎn)生。例如,人工智能與統(tǒng)計學的交叉產(chǎn)生了一個新領(lǐng)域——統(tǒng)計學習,其中一個代表性降維方法是LASSO回歸。LASSO的基本思想是假設(shè)大量潛在解釋變量中只有少數(shù)變量有重要影響,在此稀疏性假設(shè)下,通過引入適合的懲罰項,以犧牲估計偏差為代價,換取估計方差的大幅度減少,從而顯著降低均方誤差,達到精準選擇重要變量和改進樣本外預(yù)測的目的。 統(tǒng)計學與計量經(jīng)濟學一直考慮的數(shù)據(jù)均是“小”數(shù)據(jù),相對人類擁有的海量大數(shù)據(jù)來說,只是使用了“滄海一粟”,大量數(shù)據(jù)信息沒有被利用。目前,統(tǒng)計學和計量經(jīng)濟學的研究還是以模型為重心,特別是以降維為導(dǎo)向,這主要是受到可解釋性需求、數(shù)據(jù)容量、計算資源等原因的限制。在預(yù)測經(jīng)濟金融數(shù)據(jù)方面,機器學習比傳統(tǒng)計量經(jīng)濟學模型有顯著改善,但尚未達到令人滿意的程度,特別是與其他領(lǐng)域(如人臉識別)相比,更是如此。這主要是因為經(jīng)濟金融系統(tǒng)是復(fù)雜系統(tǒng),受人類心理影響很大,而且經(jīng)濟金融系統(tǒng)具有時變性。為顯著改進經(jīng)濟金融預(yù)測,可以考慮大模型范式。大模型可以容納高維影響因素,允許模型參數(shù)時變性或非線性影響,顯著減少預(yù)測偏差或模型偏差。同時,大模型使用了海量數(shù)據(jù),對數(shù)據(jù)的估計精確度有一定保障。實際上,計量經(jīng)濟學與統(tǒng)計學中的模型組合或模型集合就是一種大模型研究范式,計量經(jīng)濟學已經(jīng)開始往大模型方向發(fā)展,只是發(fā)展速度遠遠比不上ChatGPT。因此,可以考慮使用大量的非結(jié)構(gòu)化數(shù)據(jù),通過類似ChatGPT的建模方法來大大改進經(jīng)濟金融預(yù)測。在這方面,熱力學與統(tǒng)計物理學的發(fā)展歷史經(jīng)驗或許可以給我們一些啟示。關(guān)于黑體輻射,曾經(jīng)出現(xiàn)兩個理論——在短波范圍擬合較好的維恩近似,以及在長波范圍擬合較好的瑞利-金斯定律,后來普朗克將兩者綜合起來,提出了適合全波段范圍的黑體輻射定律。在經(jīng)濟學研究中,大小模型各有優(yōu)缺點,那么是否可以找到更好的方法把這兩種模型結(jié)合在一起,從而提高模型的經(jīng)濟可解釋力和預(yù)測力? 四、ChatGPT范式的局限性 人工智能特別是ChatGPT及其大語言模型正在推動經(jīng)濟學研究范式的深刻變革,但是人工智能與ChatGPT 的大語言模型范式也有局限性。 第一,以ChatGPT為代表的人工智能前沿技術(shù)沒有人的意識或理解能力,只有預(yù)測能力。ChatGPT在《時代》周刊的采訪中表示,它只是一個機器學習模型,只能根據(jù)給定的訓練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率生成文本。因此,ChatGPT本質(zhì)上并不是在理解文本數(shù)據(jù),而是在預(yù)測。此外,目前的人工智能技術(shù)不具備與人類一樣的批判性思維與想象力,無法從現(xiàn)有數(shù)據(jù)推斷或預(yù)測出重大創(chuàng)新成果。 第二,基于大數(shù)據(jù)的人工智能因果推斷本質(zhì)上其實是一種統(tǒng)計關(guān)系推斷,并不是真正的因果關(guān)系。所謂因果關(guān)系,是指其他因素不變的條件下,某一變量的變化必然引起另一變量的變化。實驗方法是識別、測度因果關(guān)系的最有效方法,通過可控試驗控制其他變量不變,只讓其中一個變量變化,觀察結(jié)果是否變化。由于大數(shù)據(jù)基本上是觀測數(shù)據(jù)而非實驗數(shù)據(jù),基于人工智能的因果推斷本質(zhì)上是一種預(yù)測關(guān)系或相關(guān)關(guān)系,它只不過是兩個變量在計算機中的統(tǒng)計關(guān)聯(lián)。這種人工智能因果關(guān)系類似于英國哲學家休謨所說的因果關(guān)系,比如太陽出來,石頭變熱。因此,人工智能因果關(guān)系和經(jīng)濟學因果關(guān)系并不完全一致。要識別經(jīng)濟學因果關(guān)系,不能僅僅依靠人工智能因果推斷,還必須有經(jīng)濟理論的指導(dǎo)或引入實驗經(jīng)濟學的方法。在我看來,經(jīng)濟學家不用擔心會被ChatGPT等人工智能工具所替代,如果沒有經(jīng)濟學理論的指引,很難找到經(jīng)濟學因果關(guān)系。ChatGPT是一種數(shù)據(jù)驅(qū)動的研究范式,比起計量經(jīng)濟學的模型驅(qū)動范式,有顯著的改進。模型驅(qū)動建立在各種假設(shè)的基礎(chǔ)上,結(jié)論常常受到所假設(shè)模型的限制,使用不同模型可能會導(dǎo)致不同的結(jié)論。Breznau et al. (2022, PNAS) 研究表明,基于同一數(shù)據(jù),不同人使用不同的模型,會得到不同的結(jié)論,這也是模型驅(qū)動的缺點。數(shù)據(jù)驅(qū)動無需假設(shè)具體的函數(shù)模型,通過算法從數(shù)據(jù)中獲得經(jīng)濟變量之間的邏輯關(guān)系,特別是經(jīng)濟學因果關(guān)系,以得到更加穩(wěn)健的結(jié)論。但是,對經(jīng)濟學研究而言,數(shù)據(jù)驅(qū)動必須與經(jīng)濟思維、經(jīng)濟理論相結(jié)合,否則無法得到經(jīng)濟學意義上的因果關(guān)系。 第三,以ChatGPT為代表的人工智能前沿技術(shù)沒有改變經(jīng)濟學實證研究的本質(zhì),即從樣本推斷總體性質(zhì)。毫無疑義,大數(shù)據(jù)與人工智能大大強化了經(jīng)濟學以數(shù)據(jù)為基礎(chǔ)的實證研究范式。雖然ChatGDP使用了海量大數(shù)據(jù)甚至是整個互聯(lián)網(wǎng)文本數(shù)據(jù),但是互聯(lián)網(wǎng)大數(shù)據(jù)并非全樣本。人類經(jīng)濟社會發(fā)展是一個漫長歷史過程,現(xiàn)有互聯(lián)網(wǎng)大數(shù)據(jù)縱使樣本容量極大,也只是這個歷史過程的一個樣本。基于大數(shù)據(jù)的經(jīng)濟學實證研究仍然是從樣本推斷總體,以及進行樣本外預(yù)測。此外,經(jīng)濟發(fā)展在不同歷史階段具有不同的特征,經(jīng)濟運行規(guī)律因此會呈現(xiàn)出顯著的時變性,有時是緩慢變化,有時是突變,這使得人工智能對經(jīng)濟金融變化趨勢的預(yù)測更具挑戰(zhàn)性。 第四,模型、算法與數(shù)據(jù)的可靠性有待驗證。以ChatGPT為代表的人工智能正在推動經(jīng)濟學與社會科學研究從模型驅(qū)動范式轉(zhuǎn)變到數(shù)據(jù)驅(qū)動范式,從數(shù)據(jù)直接獲得穩(wěn)健的結(jié)論,克服了模型驅(qū)動范式得到的結(jié)論可能會因模型改變而變化的缺陷。但是,互聯(lián)網(wǎng)開源大數(shù)據(jù)存在各種虛假信息與社會偏見,人工智能尚無法確認其表述內(nèi)容的真實性。此外,互聯(lián)網(wǎng)大數(shù)據(jù)也存在“樣本選擇偏差”問題,如城鄉(xiāng)數(shù)字鴻溝、地區(qū)數(shù)字鴻溝、代際數(shù)字鴻溝等。這些問題不可避免會影響基于互聯(lián)網(wǎng)大數(shù)據(jù)的ChatGPT乃至人工智能所獲得的結(jié)論的可靠性與科學性。 我們正處于大數(shù)據(jù)、大科技、大模型的時代,加上中國超大人口規(guī)模和超大經(jīng)濟規(guī)模給人工智能技術(shù)帶來的廣闊應(yīng)用場景,這些將為經(jīng)濟學研究提供大量豐富素材。應(yīng)當充分利用所有數(shù)據(jù)資源,積極探索大模型研究范式,揭示中國復(fù)雜經(jīng)濟系統(tǒng)的運行與發(fā)展規(guī)律。需要指出,強調(diào)大模型并不意味小模型不重要,大小模型分別適用于不同情境;強調(diào)大數(shù)據(jù)并不意味“小”數(shù)據(jù)不重要,“小”數(shù)據(jù)的信息密度通常更高;強調(diào)文本數(shù)據(jù)等非結(jié)構(gòu)化大數(shù)據(jù)也并不意味結(jié)構(gòu)化數(shù)據(jù)并不重要。 報告觀點已整理發(fā)表在《中國科學院院刊》2023年第3期。■ 入群了解更多經(jīng)濟學觀點與前沿動態(tài) |
|
|
來自: 戴維斯王朝 > 《經(jīng)濟專家》