馬斯克就不用介紹了~ Samuel Altman,85年出生的美國人,斯坦福大學(xué)計算機系輟學(xué)創(chuàng)業(yè)的極客。美國知名風(fēng)投機構(gòu)YC的總裁,硅谷創(chuàng)業(yè)教父Paul Graham的繼承人。如果你還不知道YC,你可能知道一個名人:YC的海外站——YC中國(現(xiàn)已更名奇績創(chuàng)壇)總裁正是鼎鼎大名的陸奇。
局限和弱點分析:以下是不同渠道的一些局限分析:指標缺陷:其獎勵模型圍繞人類監(jiān)督而設(shè)計,可能導(dǎo)致過度優(yōu)化,從而影響性能,這種如何確定衡量指標的難題在它身上也少不了。就像機器翻譯的Bleu值,一直被吐槽,但找不到更好更方便的評估方式。無法實時改寫模型的信念:當模型表達對某個事物的信念時,即使該信念是錯誤的,也很難糾正它。這,簡直就像一個倔強的老頭。知識非實時更新:模型的內(nèi)部知識停留在2021年,對2022年之后的新聞沒有納入。這點在體驗層面也說到了。模態(tài)單一:目前的ChatGPT擅長NLP和Code任務(wù),作為通向AGI的重要種子選手,將圖像、視頻、音頻等圖像與多模態(tài)集成進入LLM,乃至AI for Science、機器人控制等更多、差異化更明顯的其它領(lǐng)域逐步納入LLM,是LLM通往AGI的必經(jīng)之路。而這個方向才剛剛開始,因此具備很高的研究價值。高成本:超級大模型因為模型規(guī)模大,所以訓(xùn)練成本過高,導(dǎo)致很少有機構(gòu)有能力去做這件事。