小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

AI:多模態(tài)和大模型的一些經(jīng)驗總結daiding

 處女座的程序猿 2022-10-25 發(fā)布于上海

AI:多模態(tài)和大模型的一些經(jīng)驗總結daiding


文章更新中……

多模態(tài)相關

多模態(tài)機器學習旨在建立能夠處理和關聯(lián)來自多種模態(tài)信息的模型。

我們對世界的體驗是多模態(tài)的(五大感官)——我們看到物體(視覺)聽到聲音(聽覺)感覺到質地(觸覺)聞到氣味(嗅覺)品嘗味道(味覺)其實還包括第六感(心覺)。模態(tài)是指事物發(fā)生或經(jīng)歷的方式,當一個研究問題包含多種模態(tài)時,它就被稱為多模態(tài)。為了讓人工智能在理解我們周圍的世界方面取得進展,它需要能夠同時解讀這些多模態(tài)信號。多模態(tài)機器學習旨在建立能夠處理和關聯(lián)來自多種模式信息的模型。這是一個充滿活力的多學科領域,其重要性和潛力都在不斷增加。本文不關注具體的多模態(tài)應用,而是對多模態(tài)機器學習本身的最新進展進行了調查,并將它們以一種常見的分類方式呈現(xiàn)出來。我們超越了典型的早期和晚期融合分類,并確定了多模態(tài)機器學習面臨的更廣泛的挑戰(zhàn),即:表示翻譯、對齊融合共同學習。這種新的分類方法將使研究人員更好地了解該領域的現(xiàn)狀,并確定未來的研究方向。

五個挑戰(zhàn):

1)、表示第一個基本挑戰(zhàn)是學習如何以一種利用多模態(tài)的互補性和冗余性的方式來表示和總結多模態(tài)數(shù)據(jù)。多模態(tài)數(shù)據(jù)的異質性使得構造這樣的表示具有挑戰(zhàn)性。例如,語言通常是符號化的,而視聽形式將被表示為信號。

2)、翻譯第二個挑戰(zhàn)是如何將數(shù)據(jù)從一種模態(tài)轉換(映射)到另一種模態(tài)。不僅數(shù)據(jù)是異質的,而且模態(tài)之間的關系往往是開放的或主觀的。例如,存在許多描述圖像的正確方法,并且可能不存在一種完美的翻譯。

3)、對齊第三個挑戰(zhàn)是識別來自兩個或更多不同模態(tài)的(子)元素之間的直接關系。例如,我們可能想要將菜譜中的步驟與顯示菜肴制作過程的視頻對齊。為了應對這一挑戰(zhàn),我們需要衡量不同模態(tài)之間的相似性,并處理可能的長期依賴和歧義。

4)融合第四個挑戰(zhàn)是將來自兩個或更多模態(tài)的信息連接起來進行預測。例如,在視聽語音識別中,將嘴唇運動的視覺描述與語音信號融合在一起來預測口語單詞。來自不同模態(tài)的信息可能具有不同的預測能力和噪聲拓撲,至少在一種模態(tài)中可能丟失數(shù)據(jù)。

5)、共同學習第五項挑戰(zhàn)是如何在模態(tài)、表示和預測模型之間傳遞知識。這可以通過協(xié)同訓練、概念基礎和零樣本學習的算法來例證。共同學習探索了如何從一個模態(tài)學習知識可以幫助在不同模態(tài)上訓練的計算模型。當其中一種模態(tài)的資源有限(例如,注釋數(shù)據(jù))時,這個挑戰(zhàn)尤其重要。

作為調查的一部分,我們介紹了多模態(tài)機器學習的分類:表示、翻譯、對齊、融合共同學習。

其中一些如融合已經(jīng)被研究了很長時間,但最近對表示、翻譯的興趣導致了大量新的多模態(tài)算法和令人興奮的多模態(tài)應用。

我們相信我們的分類法將有助于對未來的研究論文進行分類,并更好地理解多模態(tài)機器學習面臨的剩余未解決問題。

? ?" 模態(tài) "(Modality)是德國理學家赫爾姆霍茨提出的一種生物學概念,即生物憑借感知器官經(jīng)驗接收信息通道,如人類有視覺、聽覺、觸覺、味覺和嗅覺模態(tài)。多模態(tài)是指將多種感官進行融合,而多模態(tài)交互是指人通過聲音、肢體語言、信息載體(文字、圖片、音頻、視頻)、環(huán)境等多個通道與計算機進行交流,充分模擬人與人之間的交互方式。
每一種信息的來源或者形式,都可以稱為一種模態(tài)

不同模態(tài)(例如圖像、文本、音頻)中學習的方式存在很大差異。

早期的深度學習算法專注于從一個單一的數(shù)據(jù)源訓練其模型。而多模態(tài)人工智能是計算機視覺和交互式人工智能智能模型的最終融合,為計算器提供更接近于人類感知的場景

?多模態(tài)學習成為當中的重要趨勢,它可以被應用在歸一、表示、轉化、翻譯、對齊、融合協(xié)同學習上(representation/translation/alignment/fusion/co-learning)。按照下游任務則可以劃分為理解式任務(視覺問答、視覺推理、圖文檢索等)和生成式任務(文本生成(對話/故事/詩歌)、圖像生成文本、文字生成圖像等)。

要解決這個問題,需要從端到端打通各個模態(tài)之間的關系,形成可以真正多維度交互的智能機器,讓感知智能升級為認知智能

大規(guī)模預訓練模型

近年來,BERT和GPT等大型預訓練模型(PTM)取得了巨大的成功,成為人工智能(AI)領域的一個里程碑。由于復雜的訓練前目標和龐大的模型參數(shù),大規(guī)模PTMs能夠有效地從大量有標簽和無標簽的數(shù)據(jù)中捕獲知識。通過將知識存儲到巨大的參數(shù)中,并對特定的任務進行微調,隱含在巨大參數(shù)中的豐富知識可以使各種下游任務受益,這已通過實驗驗證和經(jīng)驗分析得到廣泛證明?,F(xiàn)在AI社區(qū)的共識是采用PTMs作為下游任務的骨干,而不是從零開始學習模型。在本文中,我們深入研究了預訓練的歷史,特別是它與遷移學習自我監(jiān)督學習的特殊關系,以揭示PTMs在人工智能發(fā)展譜系中的關鍵地位。此外,我們?nèi)婊仡櫫薖TMs的最新突破。這些突破是由計算能力的激增數(shù)據(jù)可用性的增加驅動的,朝著四個重要方向發(fā)展:設計有效的架構,利用豐富的上下文提高計算效率,以及進行解釋和理論分析。。最后,我們討論了PTMs的一系列有待解決的問題和研究方向,希望我們的觀點能對PTMs的未來研究有所啟發(fā)和推動。

深度神經(jīng)網(wǎng)絡,與以前主要依賴手工特征和統(tǒng)計方法非神經(jīng)模型不同,神經(jīng)模型可以從數(shù)據(jù)中自動學習低維連續(xù)向量(又稱分布式表示)作為任務特定的特征,從而擺脫復雜的特征工程。

    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多