小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

干貨!神經(jīng)辛形式:學(xué)習(xí)一般坐標(biāo)系上的哈密爾頓方程

 西一里2l6sluho 2022-05-13

近年來(lái),人們對(duì)學(xué)習(xí)哈密爾頓方程的方法進(jìn)行了大量研究。盡管這些方法非常有前途,但常用的哈密爾頓方程的表示方法使用廣義動(dòng)量,而廣義動(dòng)量一般是未知的。因此,訓(xùn)練數(shù)據(jù)必須用這個(gè)未知的坐標(biāo)系來(lái)表示,這給將模型應(yīng)用于真實(shí)數(shù)據(jù)帶來(lái)了困難。同時(shí),哈密爾頓方程也有一個(gè)無(wú)坐標(biāo)的表達(dá)方式,它是通過(guò)使用辛-2形式來(lái)表達(dá)的。在這項(xiàng)研究中,我們提出了一個(gè)利用神經(jīng)網(wǎng)絡(luò)從數(shù)據(jù)中學(xué)習(xí)辛形式的模型,從而提供了一種從一般坐標(biāo)系表示的數(shù)據(jù)中學(xué)習(xí)哈密爾頓方程的方法,這種方法不限于廣義坐標(biāo)和廣義動(dòng)量。因此,所提出的方法不僅能夠?qū)軤栴D和拉格朗日形式的目標(biāo)方程進(jìn)行建模,而且還能夠提取隱藏在數(shù)據(jù)中的未知哈密爾頓結(jié)構(gòu)。例如,許多多項(xiàng)式常微分方程,如Lotka-Volterra方程,已知其存在非微觀的哈密爾頓結(jié)構(gòu),我們的數(shù)值實(shí)驗(yàn)表明,這種結(jié)構(gòu)當(dāng)然可以從數(shù)據(jù)中學(xué)習(xí)。從技術(shù)上講,每個(gè)辛2-形式都與一個(gè)偏斜對(duì)稱(chēng)矩陣相關(guān),但并非所有的偏斜對(duì)稱(chēng)矩陣都定義了辛2-形式。在所提出的方法中,利用辛2-形式是某些微分1-形式的外導(dǎo)數(shù)派生,我們用神經(jīng)網(wǎng)絡(luò)對(duì)微分1-形式進(jìn)行建模,從而提高了學(xué)習(xí)的效率。本次研究的主題是神經(jīng)辛形式模型,我們將用這個(gè)模型學(xué)習(xí)一般坐標(biāo)系下的哈密爾頓方程。

本期AI TIME PhD直播間,我們邀請(qǐng)到神戶(hù)大學(xué)系統(tǒng)信息研究科計(jì)算科學(xué)專(zhuān)業(yè)博士生——陳鈺涵,為我們帶來(lái)報(bào)告分享《神經(jīng)辛形式:學(xué)習(xí)一般坐標(biāo)系上的哈密爾頓方程》。

文章圖片1

陳鈺涵:神戶(hù)大學(xué)系統(tǒng)信息研究科計(jì)算科學(xué)專(zhuān)業(yè)的在讀一年級(jí)博士生?,F(xiàn)導(dǎo)師是谷口隆晴教授。于2018年獲得北京信息科技大學(xué)應(yīng)用統(tǒng)計(jì)學(xué)學(xué)士學(xué)位。博士期間的研究方向主要為深度學(xué)習(xí)與幾何動(dòng)力學(xué)和物理模擬技術(shù)的結(jié)合。該論文是陳鈺涵作為第一作者在NeurIPS發(fā)布的文章,且被采用為spotlight。其他相關(guān)論文發(fā)表在NeurIPS,AAAI等。

1

Deep learning for physical simulation

深度學(xué)習(xí)在物理學(xué)模擬領(lǐng)域

Learn dynamical system 學(xué)習(xí)動(dòng)力系統(tǒng)

  • 物理學(xué)模擬具有廣泛的應(yīng)用
  • 數(shù)據(jù)驅(qū)動(dòng)方法是一種常用的加速仿真的方法
  • 物理現(xiàn)象可用基于物理定律的微分方程表示
  • 遵守物理定律保證了結(jié)果的可靠性
文章圖片2

在計(jì)算機(jī)上對(duì)這些現(xiàn)象進(jìn)行建模和模擬的時(shí)候,最簡(jiǎn)單的方式就是用神經(jīng)網(wǎng)絡(luò)從數(shù)據(jù)中學(xué)習(xí)代表運(yùn)動(dòng)方程的常微分方程右邊部分,也就是我們常說(shuō)的Neural ODE模型。

但由于神經(jīng)網(wǎng)絡(luò)的通用性,能量守恒等物理規(guī)律在這個(gè)模型中可能是不成立的。為了不使物理特性消失,因此把這些特性引入研究模型之中。

近年來(lái),學(xué)者們對(duì)這些模型也進(jìn)行了研究,比如Euler-Lagrange equation and Hamilton equation。

學(xué)習(xí)物理現(xiàn)象,同時(shí)保留物理定律

Lagrangian Neural Network (LNN)

用來(lái)學(xué)習(xí)拉格朗日動(dòng)力學(xué)運(yùn)動(dòng)方程的模型叫做拉格朗日神經(jīng)網(wǎng)絡(luò)。

  • Lagrangian system (the Euler-Lagrange equation)在這個(gè)網(wǎng)絡(luò)中,一個(gè)神經(jīng)網(wǎng)絡(luò)被用來(lái)對(duì)拉格朗日L進(jìn)行建模,并從中推導(dǎo)出運(yùn)動(dòng)方程。在拉格朗日力學(xué)中,方程是用狀態(tài)變量及其時(shí)間導(dǎo)數(shù)來(lái)描述的。這也使得我們學(xué)習(xí)所需要的數(shù)據(jù)較為容易來(lái)準(zhǔn)備。
文章圖片3
  • 該模型還存在一個(gè)特點(diǎn),在tangent bundles切線束上定義了一個(gè)系統(tǒng)。
  • 該模型被限制在一個(gè)特定的結(jié)構(gòu)之中且該結(jié)構(gòu)屬于哈密爾頓方程的一部分。

Hamiltonian Neural Network (HNN)

哈密爾頓神經(jīng)網(wǎng)絡(luò)是一個(gè)比較有名的模型,這是用來(lái)學(xué)習(xí)哈密爾頓動(dòng)力學(xué)運(yùn)動(dòng)方程的神經(jīng)網(wǎng)絡(luò)。在該網(wǎng)絡(luò)中,一般會(huì)假設(shè)采用以下形式的模型。

  • 哈密爾頓動(dòng)力學(xué)系統(tǒng)
文章圖片4
  • 由于哈密爾頓方程本身就存在守恒定律,因此哈密爾頓神經(jīng)網(wǎng)絡(luò)也遵循能量守恒。
  • 由于能量守恒定律的存在,方法在長(zhǎng)期預(yù)測(cè)中也有良好的表現(xiàn)。
  • 這個(gè)方法也可以被擴(kuò)展為各種形式的模型,尤其是structure-preserving numerical integrators和discrete gradient method。

不過(guò),雖然這種模型在以往的研究中也常常被應(yīng)用,但是哈密爾頓方程只有在正則坐標(biāo)下才擁有這樣的形式。

同時(shí),這個(gè)坐標(biāo)系也取決于能量函數(shù)H,這個(gè)H是一個(gè)未知的哈密爾頓方程。所以說(shuō),這個(gè)坐標(biāo)系中很難去事先準(zhǔn)備數(shù)據(jù),也很難將這個(gè)模型應(yīng)用到實(shí)際問(wèn)題之中。

文章圖片5

在一般坐標(biāo)系中,通過(guò)斜對(duì)稱(chēng)矩陣,哈密爾頓方程可以被轉(zhuǎn)換成這種形式。但因此在一般坐標(biāo)系下學(xué)習(xí)哈密爾頓動(dòng)力學(xué)方程的方式是研究斜對(duì)稱(chēng)矩陣S(u),如果方程是按上圖中的形式給出,那么就有可能顯示出能量守恒定律。這種方法也被稱(chēng)為Skew symmetric matrix learning。但是這種方法也存在缺點(diǎn),斜對(duì)稱(chēng)矩陣必須滿足一定的幾何條件。

在斜對(duì)稱(chēng)矩陣通過(guò)神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí)的時(shí)候,模型可能不是哈密爾頓方程;在這種情況下能量可能是守恒的,但是物理規(guī)律可能是不成立的。另外,如果研究的對(duì)象是用哈密爾頓方程來(lái)進(jìn)行描述的,那么學(xué)習(xí)的結(jié)果是非哈密爾頓方程,那么說(shuō)明是一個(gè)效率很低的學(xué)習(xí)。

文章圖片6

總結(jié)一下,現(xiàn)有學(xué)習(xí)常微分方程的基本方法是Neural ODE,但是這種方法沒(méi)有物理意義,其物理定律和穩(wěn)定型均得不到保證。其中分析力學(xué)提出了哈密爾頓神經(jīng)網(wǎng)絡(luò),拉格朗日的運(yùn)動(dòng)方程是用位置和速度來(lái)表示的,雖然很容易準(zhǔn)備數(shù)據(jù),但是其幾何結(jié)構(gòu)卻是有限的,和哈密爾頓相比能夠處理的現(xiàn)象也是有限的。

而哈密爾頓力學(xué)可以包含拉格朗日力學(xué)不能包含的現(xiàn)象,但是正則坐標(biāo)卻被未知函數(shù)而阻礙,導(dǎo)致很難去準(zhǔn)備數(shù)據(jù)。在一般坐標(biāo)系中的表現(xiàn),哈密爾頓方程是對(duì)斜對(duì)稱(chēng)矩陣學(xué)習(xí),而在這個(gè)模型之中:能量守恒定律是可以保證的,不過(guò)需要額外的幾何條件。如果學(xué)習(xí)的結(jié)果不能成為哈密爾頓方程,那么這個(gè)學(xué)習(xí)就是沒(méi)有效率的。同時(shí),其物理規(guī)律也有可能是不成立的。

文章圖片7

2

Proposal :Neural Symplectic Form

為了解決上述問(wèn)題,我們提出了以下模型,即使用神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)Neural Symplectic Form。這使得我們有可能從不局限于廣義坐標(biāo)和動(dòng)量的一般坐標(biāo)系所表示的數(shù)據(jù)中去學(xué)習(xí)哈密爾頓方程。關(guān)鍵是要利用哈密爾頓方程與坐標(biāo)系無(wú)關(guān)的形式,畢竟之前研究的局限性在于坐標(biāo)系通常會(huì)被固定為廣義坐標(biāo)。

然而在幾何力學(xué)的研究中,方程里的ω被稱(chēng)為Symplectic Form。它對(duì)應(yīng)于一個(gè)斜對(duì)稱(chēng)的矩陣,因此通過(guò)學(xué)習(xí)Symplectic Form與哈密爾頓方程,我們可以從數(shù)據(jù)中學(xué)習(xí)任何坐標(biāo)系中的方程。

文章圖片8

因此,我們提出的方法不僅能對(duì)一般坐標(biāo)系中的方程進(jìn)行建模,而且能夠提取隱藏在數(shù)據(jù)中未知的哈密爾頓結(jié)構(gòu)。由于Symplectic Form與微分形式有關(guān),所以我們接下來(lái)要解釋一下微分形式中需要的一些術(shù)語(yǔ)。

3

Details of the method

狀態(tài)變量的移動(dòng)空間被稱(chēng)為相位空間。考慮這樣的一個(gè)相位空間M=R2N

  • M中的微分0形式:從M到R的函數(shù)
  • M中的微分1形式:由矢量v決定的線性函數(shù),取決于每個(gè)點(diǎn)并可以被表示為矢量的內(nèi)積,因此也可以被看作矢量場(chǎng)。
  • 微分k形式是指從k個(gè)向量到實(shí)數(shù)的多個(gè)線性函數(shù)

微分形式可以定義一個(gè)微分運(yùn)算,被稱(chēng)為外導(dǎo)數(shù)D,即將導(dǎo)數(shù)k形式轉(zhuǎn)到導(dǎo)數(shù)k+1形式的線性映射。

文章圖片9

說(shuō)到具體的研究方法,我們首先來(lái)看一下哈密爾頓方程的無(wú)坐標(biāo)系表示形式。

我們使用哈密爾頓方程的無(wú)坐標(biāo)系表示法建立一個(gè)模型,這樣的模型也可以用在一般的辛流形上。

微分2形式ω是一個(gè)斜對(duì)稱(chēng)的雙線性函數(shù),我們可以通過(guò)適當(dāng)?shù)木仃囎儞Q得到如下的表示:

文章圖片10

哈密爾頓方程使用了symplectic 2-form形式,可以通過(guò)這樣的形式表示。

文章圖片11
  • Non-degenerate非退化:與ω對(duì)應(yīng)的W矩陣有一個(gè)逆矩陣。
  • Closed: dω=0意味著微分形式ω的導(dǎo)數(shù)為0
  • u無(wú)論用什么坐標(biāo)系表示都是有效的——u獨(dú)立于坐標(biāo)系

事實(shí)上,我們可以通過(guò) de Rham cohomology發(fā)現(xiàn),在某些假設(shè)下,1形式下θ和閉2形式下的ω有著一對(duì)一的對(duì)應(yīng)關(guān)系。在提出的模型中,我們?yōu)榱吮WC學(xué)習(xí)到的2形式是閉合的形式,需要通過(guò)學(xué)習(xí)1形式并計(jì)算其外導(dǎo)數(shù)來(lái)學(xué)習(xí)2形式。

這里提到的一對(duì)一的對(duì)應(yīng)關(guān)系,意味著盡管微分2形式對(duì)應(yīng)一個(gè)斜對(duì)稱(chēng)矩陣,但是并不意味著所有的斜對(duì)稱(chēng)矩陣都對(duì)應(yīng)著微分2形式。辛形式下的Symplectic集合,是斜對(duì)稱(chēng)矩陣的一個(gè)子集。

從這角度來(lái)說(shuō),我們需要的是下圖中黃色區(qū)域。如果我們用一般的skew matrix learning方法,最終會(huì)得到整個(gè)大的橙色部分,并不是我們希望的。

文章圖片12

但是如果我們應(yīng)用外導(dǎo)數(shù)D,可以直接從1形式計(jì)算得到2形式。因此,通過(guò)估計(jì)斜對(duì)稱(chēng)矩陣可能無(wú)法得到哈密爾頓方程,而我們的提出手法可以使其成為哈密爾頓方程。因此能量守恒之外的物理定律是有可能成立的。

到目前為止,我們已經(jīng)可以從微分的形式來(lái)表示模型,同時(shí)這個(gè)模型也可以用矢量和矩陣的形式來(lái)表示。

文章圖片13

哈密爾頓H和代表1形式θ的向量場(chǎng)Y分別由神經(jīng)網(wǎng)絡(luò)建模,并且通過(guò)神經(jīng)網(wǎng)絡(luò)給出的1形式θ進(jìn)行自動(dòng)微分,最后將微分結(jié)果放入方程得到矩陣W。

通過(guò)這種形式學(xué)習(xí)到的2形式被稱(chēng)作Neural Symplectic Form神經(jīng)辛形式。接下來(lái)我們可以去測(cè)試一下這個(gè)模型。

Numerical experiments(mass spring model )

首先通過(guò)一個(gè)很簡(jiǎn)單的質(zhì)量彈簧系統(tǒng)進(jìn)行測(cè)試。

文章圖片14

在下圖這樣一個(gè)一般坐標(biāo)系上的哈密爾頓方程,q是點(diǎn)的位置,p是點(diǎn)的動(dòng)量。

文章圖片15

數(shù)據(jù)是通過(guò)位置p和p的導(dǎo)數(shù),應(yīng)用了1000個(gè)初始模擬值,模擬到t=5,時(shí)間增量為0.01。

對(duì)于神經(jīng)網(wǎng)絡(luò)的輸入層數(shù)量,和狀態(tài)變量u的維度相同;對(duì)于神經(jīng)網(wǎng)絡(luò)的輸出層數(shù)量,1;Y的神經(jīng)網(wǎng)絡(luò)輸出層數(shù)量也是和u的維度相同。其他設(shè)置如下圖所示:

文章圖片16

總共是用了10次訓(xùn)練的平均值和偏差來(lái)估計(jì)模型。

文章圖片17

這個(gè)實(shí)驗(yàn),對(duì)模型和預(yù)測(cè)結(jié)果而言并沒(méi)有太大區(qū)別,Neural Symplectic依然給出了一個(gè)最好的結(jié)果,與實(shí)際軌跡沒(méi)有太大區(qū)別。

Numerical experiments Lotka–Volterra model

下一個(gè)實(shí)驗(yàn)是帶有多項(xiàng)式的微分方程,存在一個(gè)隱藏的辛結(jié)構(gòu)??紤]到這樣的模型和微分方程,可以被改寫(xiě)為哈密爾頓方程。但是這個(gè)方程并不是一個(gè)標(biāo)準(zhǔn)的哈密爾頓方程。而本次實(shí)驗(yàn)的目的是檢測(cè)Neural Symplectic feature是否可以從位置的數(shù)據(jù)中提取出來(lái)。具體實(shí)驗(yàn)設(shè)置如下:

文章圖片18

從結(jié)果來(lái)看,哈密爾頓神經(jīng)網(wǎng)絡(luò)的結(jié)果峰值是非常低的,因?yàn)楸磉_(dá)式并沒(méi)有以哈密爾頓方程標(biāo)準(zhǔn)形式給出。Node的節(jié)點(diǎn)和峰值越來(lái)越低,表明能量在逐漸喪失。

文章圖片19

可以從上圖數(shù)據(jù)中看出,結(jié)果圖像是要比真實(shí)的峰值低一些的。這是因?yàn)樾睂?duì)稱(chēng)矩陣尋找到了更寬的領(lǐng)域,除了能量守恒定律也沒(méi)有其他的物理定律可以建立。而我們提出的Neural Symplectic Form幾乎給出了真實(shí)的軌道,因此該方程隱藏的辛結(jié)構(gòu)可以通過(guò)我們的方法被有效提取出來(lái)。

Numerical experiments(double pendulum)

實(shí)驗(yàn)配置如下:

文章圖片20

從廣義動(dòng)量方程來(lái)看,這個(gè)方程較為復(fù)雜,如果我們事先不知道這個(gè)方程就很難去準(zhǔn)備數(shù)據(jù)。

文章圖片21

從下圖實(shí)驗(yàn)結(jié)果可以看出,模擬的振幅非常小,哈密爾頓神經(jīng)網(wǎng)絡(luò)沒(méi)能夠準(zhǔn)確的預(yù)測(cè)出軌跡。因?yàn)槲覀冎钡絨和q的導(dǎo)數(shù)但不知道p,所以這是個(gè)失去了作用的模型。

拉格朗日神經(jīng)網(wǎng)絡(luò)失敗的原因則可能是數(shù)據(jù)的用量較少。對(duì)于我們提出的模型,峰值比實(shí)際的軌跡略高,但震蕩速度似乎是正確的 。對(duì)于NODE模型,一定程度上與實(shí)際規(guī)矩是匹配的,但是在長(zhǎng)期的預(yù)測(cè)中并沒(méi)有給出正確的結(jié)果。

文章圖片22

從下圖可以看出,只有我們提出的Neural Symplectic Form是穩(wěn)定的形式,并在持續(xù)震蕩。

文章圖片23

Numerical experiments

Error in time differentiation

文章圖片24

從時(shí)間導(dǎo)數(shù)和誤差數(shù)值來(lái)說(shuō),在大多數(shù)時(shí)間下我們的提出的方法具有較好的性能且誤差較小。

Error of energy

文章圖片25

對(duì)于能量誤差,Node模型與斜對(duì)稱(chēng)矩陣在短時(shí)期內(nèi)具有良好的表現(xiàn),但是這兩個(gè)模型在長(zhǎng)時(shí)間的實(shí)驗(yàn)中全部失敗。

4

Future task

我們還進(jìn)行了一個(gè)實(shí)驗(yàn),從圖像中學(xué)習(xí)其動(dòng)態(tài),預(yù)先訓(xùn)練了一個(gè)從圖像中提取特征的autoencoder,并應(yīng)用哈密爾頓神經(jīng)網(wǎng)絡(luò)和Neural Symplectic Form去學(xué)習(xí)這些特征的動(dòng)態(tài)。

Neural Symplectic Form給出的derivative loss是一個(gè)非常小的結(jié)果,哈密爾頓神經(jīng)網(wǎng)絡(luò)結(jié)果的最后4幅圖像存在noise,意味著其潛在空間誤差較高。

文章圖片26

下圖是與圖像正確對(duì)應(yīng)的空間是藍(lán)色部分,而圖像之所以沒(méi)有很好還原的原因在于預(yù)測(cè)到了白色部分。

文章圖片27

但是這只是個(gè)初步的測(cè)試,因?yàn)樵趯?shí)驗(yàn)中還存在著許多缺陷。比如實(shí)驗(yàn)中性能仍取決于autoencoder的結(jié)構(gòu),所以我們還需要更徹底的調(diào)查。

5

Conclusion

Neural Symplectic Form神經(jīng)辛形式

  • 基于一個(gè)幾何和獨(dú)立于坐標(biāo)系之外的的哈密爾頓方程。
  • 用神經(jīng)網(wǎng)絡(luò)對(duì)微分1-形式進(jìn)行建模,保證了學(xué)習(xí)到的2-形式是封閉的。因此,學(xué)習(xí)到的模型總是哈密爾頓系統(tǒng)
  • 除了能量守恒之外,其他物理定律也成立
  • 應(yīng)用范圍廣
  • 也適用于拉格朗日系統(tǒng)(以位置和速度表示的數(shù)據(jù))

提醒

論文題目:

Neural Symplectic Form: Learning Hamiltonian Equations on General Coordinate Systems

論文鏈接:

https:///pdf?id=4h4oqp-ATxb

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶(hù) 評(píng)論公約

    類(lèi)似文章 更多