|
盧經(jīng)緯1,2, 程相1,3, 王飛躍1,3 1. 中國科學(xué)院自動(dòng)化研究所復(fù)雜系統(tǒng)管理與控制國家重點(diǎn)實(shí)驗(yàn)室,北京 100190 2. 青島智能產(chǎn)業(yè)技術(shù)研究院,山東 青島 266114 3. 中國科學(xué)院大學(xué)人工智能學(xué)院,北京 100049 盧經(jīng)緯, 程相, 王飛躍. 求解微分方程的人工智能與深度學(xué)習(xí)方法:現(xiàn)狀及展望[J]. 智能科學(xué)與技術(shù)學(xué)報(bào), 2022, 4(4): 461-476. LU J W, CHENG X, WANG F Y. Artificial intelligence and deep learning methods for solving differential equations: the state of the art and prospects[J]. Chinese Journal of Intelligent Science and Technology, 2022, 4(4): 461-476. 0 引言1 問題描述
表示定義域。u(x)為未知解。?為微分算子,可以是ODE算子、PDE算子或者是IDE算子等。λ為方程中的參數(shù)。B(u,x)為邊界條件,如狄里克雷(Dirichlet)條件、諾依曼(Neumann)條件、洛平(Robin)條件或者一些周期邊界條件。
,一個(gè)簡單的 3 層前饋神經(jīng)網(wǎng)絡(luò)(feed forward network,F(xiàn)NN)的表示形式如式(4)所示:
為神經(jīng)網(wǎng)絡(luò)權(quán)重矩陣, 為偏置向量,σ(·)為激活函數(shù)。進(jìn)一步可得到偏微分方程的表示形式f(x,t)如式(5)所示:
表示初始條件和邊界條件產(chǎn)生的訓(xùn)練數(shù)據(jù),也可是從實(shí)際應(yīng)用中觀測得到的數(shù)值,可視為數(shù)據(jù)驅(qū)動(dòng)的部分。 表示采樣數(shù)據(jù),用于計(jì)算控制方程的殘差,可視為物理定律驅(qū)動(dòng)的部分。 的網(wǎng)絡(luò)參數(shù)以最小化 f(x,t)的殘差,同時(shí)滿足初始條件和邊界條件,能夠獲得方程解的一種可行的數(shù)據(jù)驅(qū)動(dòng)估計(jì)。深度學(xué)習(xí)求解微分方程的基本框架如圖1所示。![]() 圖1 深度學(xué)習(xí)求解微分方程基本框架 2 微分方程求解的深度學(xué)習(xí)方法2.1 方法概述及分類
表示第 l 層神經(jīng)網(wǎng)絡(luò)的輸出,θl和 bl為權(quán)重向量和偏置,σl(?)為第l層的激活函數(shù)。網(wǎng)絡(luò)規(guī)模需根據(jù)方程解的復(fù)雜性來選擇。![]() 圖2 數(shù)據(jù)和物理信息量不同的3種情形 2.2 數(shù)據(jù)驅(qū)動(dòng)求解方法 ,V為C(K1)中的緊集,G為一個(gè)非線性連續(xù)算子表示,表示從V到C(K1)的映射。接下來,對于ε>0,有正整數(shù)p、q與r,常數(shù)![]() ,則有式(10):
和 都成立。該定理表明對于任意的非線性連續(xù)算子,總存在包含兩個(gè)子網(wǎng)絡(luò)的算子網(wǎng)絡(luò),其中分支網(wǎng)絡(luò)用于編碼輸入函數(shù),主干網(wǎng)絡(luò)用于編碼輸出函數(shù)在特定位置上的值。因此,對于任意的非線性連續(xù)算子,總能找到滿足式(10)的神經(jīng)網(wǎng)絡(luò)形式無限逼近?;诜蔷€性算子的神經(jīng)網(wǎng)絡(luò)近似理論,Lu L等人采用兩個(gè)深度神經(jīng)網(wǎng)絡(luò)分別編碼離散的輸入函數(shù)空間和輸出函數(shù)域,提出了一種具有較小泛化誤差的深度算子網(wǎng)絡(luò):DeepONet,并給出了該網(wǎng)絡(luò)能夠基于數(shù)據(jù)有效近似各種顯式算子、各種確定和隨機(jī)微分方程隱式算子的數(shù)學(xué)證明。神經(jīng)算子的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì),基于神經(jīng)網(wǎng)絡(luò)關(guān)于算子的一般近似定理,能夠以自監(jiān)督的方式有效地學(xué)習(xí)微分方程的解算子。2.3 物理知情求解方法3 應(yīng)用案例4 邁向科學(xué)智能大模型:DeDAO4.1 支撐技術(shù)![]() 4.2 DeDAO
![]()
4.3 DeDAO之基于最佳格點(diǎn)集的最小二乘法
其中,c為待定參數(shù),將式(11)帶入式(3)可得殘差如式(12)所示:
的選取與近似解的精度相關(guān),也就是說在離散空間中表示原函數(shù),需要采取一定的標(biāo)準(zhǔn)。對此,參考文獻(xiàn)采用最佳格點(diǎn)集來實(shí)現(xiàn)最小二乘法求解微分方程的配點(diǎn),式(13)是常見的一種佳點(diǎn)集:
其中, 在計(jì)算機(jī)技術(shù)快速發(fā)展的當(dāng)下,采用人工神經(jīng)元取代試函數(shù)作為基底能夠形成通用的近似結(jié)構(gòu),方便工程實(shí)踐。采用物理知識輔助進(jìn)行深度學(xué)習(xí),可實(shí)現(xiàn)無網(wǎng)格的求解,借助人工智能解決物理中的數(shù)學(xué)問題。基于神經(jīng)網(wǎng)絡(luò)的通用逼近定律如式(10),深度學(xué)習(xí)求解微分方程的方法,有望取得與有限元法與有限體積法等常用數(shù)值方法相似甚至更好的精度。因此,在DeDAO中,本文采用深度神經(jīng)網(wǎng)絡(luò)描述方程解的特征,以取代試函數(shù)的組合,給出使用最小二乘法優(yōu)化網(wǎng)絡(luò)參數(shù)的一種求解方法框架,其殘差加權(quán)損失函數(shù)設(shè)計(jì)如式(14)所示:
5 結(jié)束語 |
|
|