Skip to main content

Novel and general discontinuity-removing PINNs for elliptic interface problems

· 25 min read
Tanger
Academic rubbish | CV Engineers | Visual bubble | compute math | PINN | Mathematical model

这是一篇关于处理变系数边界问题的 PINN 论文。

摘要

摘要原文:

This paper proposes a novel and general framework of the discontinuity-removing physicsinformed neural networks (DR-PINNs) for addressing elliptic interface problems. In the DR-PINNs, the solution is split into a smooth component and a non-smooth component, each represented by a separate network surrogate that can be trained either independently or together. The decoupling strategy involves training the two components sequentially. The first network handles the non-smooth part and pre-learns partial or full jumps to assist the second network in learning the complementary PDE conditions. Three decoupling strategies of handling interface problems are built by removing some jumps and incorporating cusp-capturing techniques. On the other hand, the decoupled approaches rely heavily on the cusp-enforced level-set function and are less efficient due to the need for two separate training stages. To overcome these limitations, a novel DR-PINN coupled approach is proposed in this work, where both components learn complementary conditions simultaneously in an integrated single network, eliminating the need for cusp-enforced level-set functions. Furthermore, the stability and accuracy of training are enhanced by an innovative architecture of the lightweight feedforward neural network (FNN) and a powerful geodesic acceleration Levenberg-Marquardt (gd-LM) optimizer. Several numerical experiments illustrate the effectiveness and great potential of the proposed method, with accuracy outperforming most deep neural network approaches and achieving the state-of-the-art results.

摘要翻译:

本文提出了一种新型且通用的断续性消除物理信息神经网络(DR-PINNs)框架,用于解决椭圆型界面问题。在 DR-PINNs 中,解被分解为光滑部分和非光滑部分,每个部分由独立的神经网络代理表示,这些代理可以单独训练或共同训练。解耦策略涉及依次训练这两个部分。第一个网络处理非光滑部分,并预先学习部分或全部跳跃,以协助第二个网络学习互补的偏微分方程(PDE)条件。通过去除部分跳跃并结合尖点捕获技术,构建了三种处理界面问题的解耦策略。另一方面,解耦方法高度依赖于尖点强制水平集函数,且由于需要两个独立的训练阶段而效率较低。为克服这些局限性,本文提出了一种新型 DR-PINN 耦合方法,其中两个组件在集成单一网络中同时学习互补条件,消除了对尖点强制水平集函数的需求。此外,通过轻量级前馈神经网络(FNN)的创新架构和强大的几何加速 Levenberg-Marquardt(gd-LM)优化器,训练的稳定性和准确性得到提升。多个数值实验验证了所提方法的有效性和巨大潜力,其精度显著优于现有方法。

讨论

我们提出了一种新型且通用的 DR-PINNs 框架,用于以高精度求解椭圆型界面问题。该框架将解分解为一个光滑分量 𝑈和一个非光滑分量 𝑉。这种分离使得我们设计了用于DR-PINNs 的解耦和耦合策略,利用𝑈 和 𝑉 的互补特性来解决传统神经网络难以处理的界面问题。在解耦策略中,预训练网络 V\mathcal{V} 用于处理非光滑组件界面上的跳变,而光滑组件则通过广义尖点捕获技术解决剩余的偏微分方程条件。另一方面,耦合方案通过耦合方式学习两个互补部分,消除了对水平集函数和两阶段训练的需求。实验结果表明,耦合方案通常优于解耦方案。此外,我们引入了一种改进的深度网络,结合了浅层网络和深度网络的优势,以实现更快的收敛速度并提升学习能力。

通过采用改进的 Levenberg-Marquardt 算法(即 gd-LM),我们的方法在性能和精度方面较先前神经网络技术实现了显著提升,达到了解决椭圆界面问题的新型最先进方法。此外,在相同实验条件下,研究结果表明,所提耦合方案在精度和计算效率方面均保持领先性能,优于针对复杂问题提出的增强型域分解基线方案。

如实验所示,解耦方案中训练的 V\mathcal{V} 能够有效减少界面误差,但在训练光滑部分时可能遇到挑战,尤其是在处理不规则水平集函数时。对水平集函数的依赖限制了解耦方案在复杂界面中的适用性。相比之下,耦合方案提供了一种更 robust 和灵活的方法来处理复杂界面,尽管与解耦方案相比,界面处的误差可能不太可忽略。因此,DR-PINNs 的耦合方案被推荐为各种应用的默认求解器。然而,与大多数现有基线相比,解耦方案在修改后的深度网络和强大的 gd-LM 优化器下仍具有有效性和实用性,并为未来研究提供了独特的技术贡献。提出解耦和耦合方案为研究人员提供了灵活且可行的方法来解决椭圆界面问题。尽管取得了令人鼓舞的结果,仍存在一些未解决的问题需要解决。例如,需要减少对水平集函数的依赖,以准确捕捉复杂界面几何中的不连续性。此外,设计用于具有不连续系数界面问题的解耦方案(A\mathcal{A})和(B\mathcal{B})是一项需要关注的挑战。此外,当前 LM 或 gd-LM 算法的计算效率也需要进一步优化。

这篇论文针对椭圆型界面问题提出了一种方法即 DR-PINN,这是利用两种变量 UUVV 共同作用的结果,我们来看看是如何使用这两个变量的。

实验:常系数

他们使用了 Hammersley 序列技术在域中生成数据样本,低偏差序列(如 Hammersley 序列)相较于其他均匀采样方法(如等间隔网格、均匀随机采样或拉丁超立方采样(LHS)更为有效,尤其在全批量训练中,老规矩定义误差

uNu=max1iMtest uN(xi)u(xi),uNu2=1Mtest i=1Mtest (uN(xi)u(xi))2,\left\|u_{\mathcal{N}}-u\right\|_{\infty}=\max _{1 \leq i \leq M_{\text {test }}}\left|u_{\mathcal{N}}\left(\boldsymbol{x}_{i}\right)-u\left(\boldsymbol{x}_{i}\right)\right|,\left\|u_{\mathcal{N}}-u\right\|_{2}=\sqrt{\frac{1}{M_{\text {test }}} \sum_{i=1}^{M_{\text {test }}}\left(u_{\mathcal{N}}\left(\boldsymbol{x}_{i}\right)-u\left(\boldsymbol{x}_{i}\right)\right)^{2}},

实验设置中,二维实验设置为Mtest=104M_{test}=10^4,三维实验设置为Mtest=105M_{test}=10^5.在损失函数的权重上,作者并未浪费过多时间,全部设置为 1.

算例 4.1

该算例考虑常系数即(β1=β2=1.0\beta_1=\beta_2=1.0)的情况,计算域为正方形为 Ω=[1,1]×[1,1],\Omega=[-1,1]\times[-1,1], 其中包含一个浸没的圆形界面 Γ\Gamma ,该界面由光滑的水平集函数 φ(x,y)=x2+y2(1/2)2\varphi(x,y)=x^2+y^2-(1/2)^2定义。

精确解为

u(x,y)={exp(x2+y2),(x,y)Ω1,0.1(x2+y2)20.01log(2x2+y2),(x,y)Ω2.u(x,y)=\left\{\begin{matrix} exp(x^2+y^2),(x,y)\in\Omega_1,\\ 0.1(x^2+y^2)^2-0.01log(2\sqrt{x^2+y^2}),(x,y)\in\Omega_2. \end{matrix}\right.

本实验:i) 关于解耦方法:采用一个具有 NV=30N_{\mathcal{V}}=30 个神经元的浅层神经网络用于 V\mathcal{V} ,以及一个经过修改的深度网络,该网络具有 L=2L=2 个隐藏层和 NU=20N_{U}=20 个神经元每层用于 UU . ii) 关于耦合方法,采用了一种修改后的深度神经网络,该网络具有 𝐿=2𝐿 = 2 个隐藏层,每个层包含 𝑁𝑐𝑜=25𝑁_{𝑐𝑜} = 25 个神经元。作为参考,还采用了一种标准的 PINNs 方法,该方法基于一个修改后的深度神经网络,其中 𝐿=2𝐿 = 2𝑁𝑝𝑖𝑛𝑛𝑠=25𝑁_{𝑝𝑖𝑛𝑛𝑠} = 25。我们使用 Hammersley 序列方法从域中生成 𝑀Ω=900𝑀_Ω = 900 个样本,此外还均匀采样 𝑀Γ=120𝑀_Γ = 120 个界面点和 𝑀𝔹=100𝑀_𝔹 = 100 个边界点。需要注意的是,如果需要,𝑈𝑈V\mathcal{V} 的训练可以共享相同的界面样本。

下图展示了精确解以及四个 DR-PINNs 策略及其导数在切片 𝑦=0𝑦 = 0 处的输出结果,由此可以验证 VV 能够有效消除解在不同层级界面上的跳变,形成一个相对平滑的分量 U=uVU=u-V. 所有的误差均达到 O(108)O(109)\mathcal{O}(10^{-8}) \sim \mathcal{O}(10^{-9}).

表 4.1 展示了 DR-PINNs 的 𝐿2𝐿^2-𝐿𝐿^∞- 误差以及训练损失,同时将标准 PINNs 及其直接实现(广义)尖点约束技术的变体作为参考。在缺乏形式为 u=U+Vu=U+V 的解法(至少能处理界面上的零阶跳变)的情况下,即使配备了(广义)尖点捕获技术,标准 PINN 模型也无法解决界面问题。可以观察到,与训练 𝑈𝑈 相比,训练 V\mathcal{V} 在解耦方法中要容易得多,这导致在学习跳跃条件时误差微乎其微,而学习其互补条件时的误差则较大。

如果应用尖点捕获技术使误差减少 343 \sim 4 个数量级,图 4.6 就展示了这一技术,如图所示,采取该技术可以在界面处准确拟合连续但不光滑的 ff。由极坐标方程

算例 4.2

相关设置与算例 4.1 一样,只是边界处不采用圆形,采用五瓣花形界面,该边界由极坐标方程 r(θ)=0.4+0.1sin(5θ)r(\theta)=0.4+0.1sin(5\theta) 定义。水平集函数表示为 φ=tanh(x2+y2r2(θ))\varphi=tanh(x^2+y^2-r^2(\theta)) ,其中 θ=atan2(x,y)\theta=atan2(x,y).使用 tanh 函数有助于消除由于 θ=atan2(x,y)\theta=atan2(x,y) 的表示方式而在坐标系原点处可能出现的奇异性。

在解耦方案的代理模型选择中,我们采用一个浅层神经网络(𝐿=1𝐿 = 1),其第一个网络中 𝑁V=50𝑁_{\mathcal{V}} = 50 个神经元,以确保在界面处对 V\mathcal{V} 的指定跳变进行精确约束。因此,在第二个网络中,界面处 𝑈𝑈 或其导数的 discontinuities 被准确去除。随后,我们引入了一个修改后的深度网络当 𝐿=2𝐿 = 2𝑁𝑈=25𝑁_𝑈 = 25 或 30 时,对于 𝑈𝑈。为了提供比较依据,耦合网络还使用了一个修改后的深度网络,其中 𝐿=2𝐿 = 2𝑁𝑐𝑜=25𝑁_{𝑐𝑜} = 25 或 30。采样过程涉及域内 𝑀Ω=1600𝑀_Ω = 1600 个采样点、界面处 𝑀Γ=120𝑀_Γ = 120 个采样点以及边界沿线 𝑀𝜕Ω=120𝑀_{𝜕Ω} = 120 个采样点。此外,我们采用混合有限差分法(hybrid-FD method)来近似解耦方案(A\mathcal{A})和(B\mathcal{B})中的 𝑈𝑈 ,其方法与前例类似。

表 4.2 的结果证实,基于纯网络的解耦方法对水平集函数的质量高度敏感。另一方面,方案 (A\mathcal{A}) 中的混合有限差分方法保持了二阶精度,展现出相较于纯网络逼近的有效性和鲁棒性。值得注意的是,耦合方法在精度上表现优异,𝐿𝐿^∞ 误差达到 O(108)\mathcal{O}(10^{−8}) 的量级,这展示了其在复杂界面问题中的鲁棒性。增加网络中的参数数量表明,对于耦合方法,随着损失函数整体减小,解的误差也如预期般减小。相比之下,解耦方法因过度拟合水平集函数的不规则性,导致误差停滞甚至增加。

图 4.7 显示了 DR-PINNs 网络近似中绝对误差的分布。在三种解耦技术的情况下,中心附近的误差盖过了界面处的误差。这一观察结果得到了解耦策略中  的损失值的支持,这些值始终低于 101310^{−13} 的阈值,表明界面处的误差可以忽略不计。相反,在耦合方法中,界面处的误差较为明显。由于 𝑈 和  的联合训练具有相似的损失幅度,界面处的 dominant 误差持续存在,且未像解耦方法那样得到有效消除。

算例 4.3(三维椭球面)

在本例中,我们考虑一个具有常系数的 3D 椭圆界面问题。计算域定义为 [1,1]3[−1, 1]³ 的立方体。该域中的嵌入界面呈椭球面形式,以原点为中心,其半主轴长度分别为 0.7、0.5 和 0.3。该椭球体由水平集函数 𝜑=(𝑥0.7)2+(𝑦0.5)2+(𝑧0.3)21𝜑 = (𝑥∕0.7)² + (𝑦∕0.5)² + (𝑧∕0.3)² − 1 表示。对于此特定问题,精确解被取为式 (4.1) 的三维形式。

为了训练 V\mathcal{V} 在解耦技术方面的能力,我们使用了一个经过修改的网络,该网络包含 2 个隐藏层,每个隐藏层有 20 个神经元(𝑁V=20𝑁_{\mathcal{V}} = 20)。

至于训练 𝑈 进行解耦技术以及在耦合方法中进行协同训练的网络,我们选择了一个经过修改的网络,该网络包含 4 层,每层有 20 个神经元(𝑁𝑈=𝑁𝑐𝑜=20𝑁_𝑈 = 𝑁_{𝑐𝑜} = 20)。我们使用 800 个数据点(𝑀Γ = 800),这些数据点是从界面采样获得的,数据源自通过 DistMesh [40]生成的网格节点。我们在域和边界上对不同采样密度下的结果进行了比较。此外,我们还引入了一个基于 1283 网格的混合有限差分求解器进行比较分析。

表 4.3 中的结果表明,耦合方法在整体上比解耦方法优越约 1 到 2 个数量级。在解耦方法中,解耦方案(C\mathcal{C})表现最佳。尽管在解耦方案(A\mathcal{A})下,有限差分计算比其网络对应方法快 119 倍(CPU 上 4.35 秒 vs. GPU 上 520.00 秒,(𝑀Ω,𝑀𝔹)=(15000,2400)(𝑀_Ω,𝑀_𝔹) = (15000, 2400)),但我们的方法在网格分辨率大幅降低时仍能实现显著更高的精度,尤其是耦合方案,其 L2 误差可达 O(109)\mathcal{O}(10^{−9})。显然,随着采样密度降低(即 𝑀Ω𝑀_Ω𝑀𝔹𝑀_𝔹 减小),解耦方案(A\mathcal{A})和(B\mathcal{B})在 𝐿𝐿^∞ 误差下的精度显著下降。相比之下,解耦方案(A\mathcal{A})和(B\mathcal{B})的精度对采样密度变化的敏感性较小。

表 4.3 所示的结果表明,耦合方法在整体性能上比解耦方法高出约 1 到 2 个数量级。在解耦方法中,解耦方案()表现最佳。在解耦方案()下,有限差分计算比其网络对应方法快 119 倍(CPU 上为 4.35 秒,GPU 上为 520.00 秒,(𝑀Ω,𝑀𝔹)=(15000,2400)(𝑀_Ω,𝑀_𝔹) = (15000, 2400)),但我们的方法在网格分辨率大幅降低时仍能实现显著更高的精度,尤其是耦合方案,其 L2 误差可达 (10−9)。显然,随着采样密度降低(即 𝑀Ω𝑀_Ω𝑀𝔹𝑀_𝔹 减小),解耦方案(A\mathcal{A})和(B\mathcal{B})在 𝐿𝐿^∞ 误差下的精度显著下降。相比之下,解耦方案(A\mathcal{A})和耦合方案 (B\mathcal{B}) 的精度对采样密度的变化表现出较小的敏感性。为了探究这种行为的根本原因,我们观察到在方案 (A\mathcal{A}) 和 (B\mathcal{B}) 中,当 (𝑀Ω,𝑀𝔹)=(9000,2400)(𝑀_Ω,𝑀_𝔹) = (9000, 2400) 或 (6000, 800) 时,椭球体中央区域的误差变得显著。尽管在此未明确展示,但解耦方案(A\mathcal{A})和(B\mathcal{B})中学习到的函数  呈现出鞍形结构,这增加了学习互补函数 𝑈𝑈 的难度。

这个文章还实现了对不连续成分 V\mathcal{V}UU 自适应调整,而非依赖预先确定且可能次优的V\mathcal{V}

网络架构的消融分析

我们在以下内容中探讨所选网络架构的影响,同时保持解耦方案中 VN\mathcal{V}_N 的训练设置不变。图 4.8 通过比较 GD-LM 下训练 𝑈𝑈 的损失曲线,展示了使用修改后的深度网络的必要性。该比较涉及在解耦方案(A\mathcal{A})下使用修改后的深度网络、浅层网络和标准深度网络,参数设置为 𝑀Ω,𝑀𝔹=15000,2400(𝑀Ω,𝑀𝔹)=(15000, 2400) ,这可能代表示例中最具挑战性的情况。比较中使用的浅层网络包含 250 个隐藏神经元,而深度网络和修改后的网络均具有 𝐿=4𝐿 = 4𝑁𝑈=20𝑁_𝑈 = 20,导致可学习参数数量相似。显然,浅层网络难以有效学习,标准深度网络则出现早期停滞,而修改后的网络在 1250 次迭代内实现了最优学习效果。

优化器的移除

图 4.9 展示了使用 gd-LM 作为主要优化器的优势。我们将它与标准 LM[23]、Adam[29]以及 Adam 与 L-BFGS 的组合[30]作为基准进行比较,并展示了它们在耦合方案 (𝑀Ω,𝑀𝔹)=(6000,800)(𝑀_Ω,𝑀_𝔹) = (6000, 800) 下的损失变化。实验采用三种网络架构(修改后的深度网络、深度网络和浅层网络),其可训练参数数量相当。为确保公平比较,所有模型均采用双精度全批量训练。

总体而言,LM 和 gd-LM 的损失幅度显著低于 Adam 或 L-BFGS,因为 LM 专门针对最小二乘问题进行优化,而 Adam 或 L-BFGS 则是通用优化器。值得注意的是,对于深度和修改后的深度网络,gd-LM 能在 1000 次迭代内将损失值有效降低至 O(1016)\mathcal{O}(10^{−16}) 量级,而标准 LM 则需要约 3000 次迭代才能达到较小的损失值。相比之下,对于浅层架构,由于网络容量较低,LM 和 gd-LM 的损失值均达到 O(107)\mathcal{O}(10^{−7}) 的较高量级。在表 4.5 中,我们报告了不同优化器在四种 DR-PINN 方法下的 𝐿2𝐿^2𝐿𝐿^∞误差,以及计算时间。对于解耦方案,仅替换训练 𝑈 的优化器,而第一阶段的设置保持不变。结果表明,gd-LM 优化器在准确性和训练效率方面均优于其他方法,尤其在轻量级训练中表现突出。

实验:连续性系数不连续的情况

算例 4.4(高对比度系数)

方法

PINNs [18] 通过将方程信息或约束条件作为优化目标,为物理驱动系统(如偏微分方程)提供神经网络近似。一个在域 ΩΩ 上定义并具有界面 ΓΓ 的通用接口偏微分方程系统可表示为:

{Lu=f,inΩ/Γ,Iu=γ,onΓ,Bu=g,onΩ,\left\{\begin{matrix} \mathcal{L}u=f, in \Omega/\Gamma, \\ \mathcal{I}u=\gamma, on \Gamma, \\ \mathbb{B}u=g, on \partial \Omega, \end{matrix}\right.

其中, L\mathcal{L} 表示微分算子,I\mathcal{I} 是与界面条件相关的算子,𝔹𝔹 是与边界条件相关的算子。

通常,可以将 PINN 视为一个优化问题,通过将残差相对于方程的均方误差(MSE)损失进行建模。例如,给定从 Ω、𝜕Ω 和 Γ 采样的一组训练点 {𝒙𝑖}\{ \textbf{𝒙}_𝑖 \} ,PINNs 的目标是通过最小化以下损失函数来学习网络近似 u~=N(𝑥;𝜃)\tilde{u} = \mathcal{N}(𝑥; 𝜃) 的最佳参数 𝜃𝜃^∗

loss(θ)=1MLxΩ/ΓLu~f2+1MBxBΩBu~g2+1MIxΓΓIu~γ2,\operatorname{loss}(\theta)=\frac{1}{M_{\mathcal{L}}} \sum_{\boldsymbol{x} \in \Omega / \Gamma}|\mathcal{L} \tilde{u}-f|^{2}+\frac{1}{M_{\mathbb{B}}} \sum_{\boldsymbol{x}_{\mathbb{B}} \in \partial \Omega}|\mathrm{B} \tilde{u}-g|^{2}+\frac{1}{M_{\mathcal{I}}} \sum_{\boldsymbol{x}_{\Gamma} \in \Gamma}|\mathcal{I} \tilde{u}-\gamma|^{2},

其中,ML,MIM_{\mathcal{L}},M_{\mathcal{I}}MBM_{\mathbb{B}} 分别表示来自域、界面和边界的训练点总数。

尖端捕获技术

“尖端捕获”的概念指的是利用单个神经网络处理解在界面处一阶或更高阶导数的 discontinuities。这种捕获能力在解决界面问题中发挥着关键作用,因为标准神经网络难以准确建模 discontinuous 解及其导数,如前所述。

一个值得注意的断续性捕获示例是 DCSNN 模型[20],该模型在输入中添加了额外标签(如 𝑧 = ±1),以区分两个不同区域,并使网络能够更准确地近似解的断续段。Lai 等[25]提出了一种尖点强制技术,该技术专注于在保持解整体连续性的同时,捕捉界面处解导数的断续性。这一方法为处理界面问题提供了更先进的方法。通过在本研究中实现一种通用尖点捕捉技术,我们可以提升用于解决复杂界面相关问题的神经网络模型的准确性和效率。现在,我们在介绍通用版本之前,先对该技术进行简要概述,以便后续应用。

尖端强制 PINN 的关键思想是通过在输入中引入与界面相关的额外特征,在神经网络中的界面上引入导数不连续属性。具体而言,假设使用形式为 N(x,z)\mathcal{N}(\textbf{x},z) 的新网络来找到近似解 uN(x,φ~(x))u_\mathcal{N}(\textbf{x},\tilde{\varphi}(\textbf{x})),其中 z=φ~z=\tilde{\varphi} 是与界面相关的额外特征。然后通过计算网络解的梯度 uN=_xN+𝜕zNφ~\nabla _{u_{\mathcal{N}}} =\nabla\_{\textbf{x}} \mathcal{N} + 𝜕_z\mathcal{N} \nabla \tilde{\varphi} ,由于神经网络是光滑的,因此在界面上的结果是=。值得注意的是,当 φ~0\llbracket \nabla \tilde{\varphi} \rrbracket \neq 0 时,界面处的解的导数可能出现不连续。值得注意的是,如果 φ~\tilde{\varphi} 在界面上是连续的 ,则 uNu_{\mathcal{N}} 可以保持的连续性。

具体的步骤可以看看原文

去除不连续性的 PINN

在本节中,我们首先介绍了去除不连续性的 PINNs 的一般思想。如前所述,由于解在界面上是非光滑或/和不连续的,一种潜在的方法是去除非光滑的为了便于求解剩余的光滑(规则)部分,在一定程度上减少了解的(奇异)部分。类似于 Hybrid-NNFD [24],我们开始将解决方案分解为两个不同的部分:

u(x)=U(x)+V(x),u(x) = U(x) +V(x),

其中, 𝑈𝑈 表示 𝑢𝑢 的光滑部分,而 𝑉𝑉 表示删除的非平滑部分部分部分。上述“在某种程度上”或“部分”的含义是指 𝑉𝑉 不一定包含解决方案中的所有不连续性及其界面上的一阶和二阶导数。因此,𝑈𝑈 可以是 𝐶0𝐶^0 平滑的(即连续),𝐶1𝐶^1 平滑或 𝐶2𝐶^2 平滑的界面。假设不连续函数 𝑉𝑉 具有与[24]中的类似形式:

V(x)=s(x)V(x),s(x)={1inΩ1,0inΩ2,V(\textbf{x}) = s(\textbf{x})\mathcal{V}(\textbf{x}), s(\textbf{x})=\left\{\begin{matrix} 1 in \Omega_1,\\ 0 in \Omega_2, \end{matrix}\right.

其中, 𝑠(𝒙)𝑠(\textbf{𝒙}) 是指示位置 𝒙\textbf{𝒙} 的信号函数。

Dr-Pinns 的框架如图 3.2 所示,其中包括脱钩或耦合学习方法。基于尖尖的 PINN [25]和类似于 Hybrid-NNFD [24]的去耦方法涉及与网络 V\mathcal{V} 的预了解界面知识,以形成分解的不连续部分。随后,对网络 𝑈𝑈 进行训练,以学习适合由 𝑈=𝑢𝑉𝑈=𝑢−𝑉 形成的互补条件的剩余子问题。在 𝑈𝑈 的学习过程中,应用广义的尖峰捕获技巧来解释整个界面上跨界面的较高衍生物的不连续性,而香草网络可能难以合适。另一方面,耦合方法涉及将两个互补部分一起训练,以解决完整的接口 PDE 问题。在这种情况下,可以将两个部分集成到单个网络中以提高效率,并且不依赖级别集合功能。在接下来的两个小节中讨论了有关这些方法的更多详细信息,然后引入新型网络体系结构和 GD-LM 优化器进行优化。

DR-PINNs 框架(左)分别按顺序学习 𝑉 和 𝑈 的解耦学习方法。(右)同时学习两个部分的耦合学习方法。函数 𝑠(x)𝑠(\textbf{x}) 表示信号函数,在 Ω1\Omega_1 中为 1,在 Ω0\Omega_0 中为 0。

Dr-PINNs 的解耦方法

先考虑一个简化的泊松方程,并具有恒定系数 𝛽=1𝛽 = 1

从上述方程式可以观察到解决方案 𝑢𝑢 及其一阶和二阶导数的不连续性来自以下三个来源:

{Δu=f, in Ω/Γ, (a) u=w, on Γ, (b) nu=v, on Γ, (c) u=g, on Ω, (d) (1)\left\{\begin{array}{lll} -\Delta u=f, & \text { in } \Omega / \Gamma, & \text { (a) } \\ \llbracket u \rrbracket=w, & \text { on } \Gamma, & \text { (b) } \\ \llbracket \partial_{n} u \rrbracket=v, & \text { on } \Gamma, & \text { (c) } \\ u=g, & \text { on } \partial \Omega, & \text { (d) } \end{array}\right.\tag{1}

从上述方程式可以观察到解决方案 𝑢 及其一阶和二阶导数的不连续性来自以下三个来源:

  • (i)在界面上的解决方案中的跳跃,即等式(1b);
  • (ii)跨界面的溶液的一阶法线衍生物的跳跃,即等式(1C);
  • (iii)跨界面上的溶液中的跳跃,即 Δ𝑢(xΓ)=𝑓xΓ),xΓΓ\llbracket \Delta 𝑢 \rrbracket (\textbf{x}_\Gamma) = −\llbracket𝑓\rrbracket(\textbf{x}_\Gamma),\textbf{x}_\Gamma \in \Gamma

在这里,目标是将它们分为不同的子问题组 UUVV ,以确保在一定程度上表现出指定的平滑属性,并且可以单独解决。我们以三种潜在的方式适当地分配了这些跳跃来源:(A)𝑉(\mathcal{A})𝑉 包括所有三个跳跃,即(i)- (iii)。 (B)𝑉(\mathcal{B})𝑉 包括前两个跳跃,即(i)- (ii)。 (C)𝑉(\mathcal{C})𝑉 专门容纳第一个跳跃,即(i)。 𝑈𝑈 的特定平滑度是根据 VV 的分配程度确定的 VV。一旦可用,可以很容易地从 𝑈=𝑢𝑉𝑈=𝑢-𝑉 中得出 𝑈𝑈 的条件。

这些分配的好处是两个方面。一个是,𝑈𝑈 将保持低阶导数的连续性,同时在界面处的高阶导数上不连续。可以使用先前已经描述过的尖峰捕获技术有效地处理这种不连续性。另一个是,解决了解决 𝑉𝑉𝑈𝑈 的两个阶段任务,从而使每个任务的效率和单独完成,而无需在模型之间发生冲突的通信。这与域分解方法形成鲜明对比,在这种方法中经常遇到这种冲突。

请注意,上述分配策略(A\mathcal{A})与 Hybrid-NNFD 中使用的方法有些相似[24]。关键区别在于事实是,后者通过有限差异技术解决了解决方案,而我们的神经网络专门采用了普遍的尖峰捕获技术的帮助。接下来,我们将探索以恒定系数解决椭圆界面问题的三种不同策略.

🅐 Scheme (A):UUC2C^2 连续

  • VV 包含三种跳跃:

    1. u=w(xΓ)\llbracket u \rrbracket = w(\mathbf{x}_\Gamma)
    2. nu=v(xΓ)\llbracket \partial_n u \rrbracket = v(\mathbf{x}_\Gamma)
    3. Δu=f(xΓ)\llbracket \Delta u \rrbracket = -\llbracket f \rrbracket(\mathbf{x}_\Gamma)
  • V\mathcal{V} 的边界条件为:

    V(xΓ)=w(xΓ)nV(xΓ)=v(xΓ)ΔV(xΓ)=f(xΓ)\begin{aligned} \mathcal{V}(\mathbf{x}_\Gamma) &= -w(\mathbf{x}_\Gamma) \\ \partial_n \mathcal{V}(\mathbf{x}_\Gamma) &= -v(\mathbf{x}_\Gamma) \\ \Delta \mathcal{V}(\mathbf{x}_\Gamma) &= \llbracket f \rrbracket(\mathbf{x}_\Gamma) \end{aligned}
  • UU 的方程变为:

ΔU=f,xΩΓU=0,nU=0,xΓU=g,xΩ\begin{aligned} - \Delta U &= f, \quad \mathbf{x} \in \Omega \setminus \Gamma \\ \llbracket U \rrbracket &= 0, \quad \llbracket \partial_n U \rrbracket = 0, \quad \mathbf{x} \in \Gamma \\ U &= g, \quad \mathbf{x} \in \partial \Omega \end{aligned}

🅑 Scheme (B):UUC1C^1 连续

  • VV 包含两种跳跃:

    1. u=w(xΓ)\llbracket u \rrbracket = w(\mathbf{x}_\Gamma)
    2. nu=v(xΓ)\llbracket \partial_n u \rrbracket = v(\mathbf{x}_\Gamma)
  • V\mathcal{V} 的边界条件为:

    V(xΓ)=w(xΓ)nV(xΓ)=v(xΓ)\begin{aligned} \mathcal{V}(\mathbf{x}_\Gamma) &= -w(\mathbf{x}_\Gamma) \\ \partial_n \mathcal{V}(\mathbf{x}_\Gamma) &= -v(\mathbf{x}_\Gamma) \end{aligned}

UU 满足:

ΔU=f,xΩΓU=0,nU=0U=g,xΩ\begin{aligned} - \Delta U &= f, \quad \mathbf{x} \in \Omega \setminus \Gamma \\ \llbracket U \rrbracket &= 0, \quad \llbracket \partial_n U \rrbracket = 0 \\ U &= g, \quad \mathbf{x} \in \partial \Omega \end{aligned}

🅒 Scheme (C):UUC0C^0 连续

  • VV 仅包含一个跳跃项:

    1. u=w(xΓ)\llbracket u \rrbracket = w(\mathbf{x}_\Gamma)
  • V\mathcal{V} 的边界条件为:

    V(xΓ)=w(xΓ)\mathcal{V}(\mathbf{x}_\Gamma) = -w(\mathbf{x}_\Gamma)
  • UU 满足:

ΔU=f,xΩΓU=0nU=v(xΓ)+nV(xΓ)U=g,xΩ\begin{aligned} - \Delta U &= f, \quad \mathbf{x} \in \Omega \setminus \Gamma \\ \llbracket U \rrbracket &= 0 \\ \llbracket \partial_n U \rrbracket &= v(\mathbf{x} \in \Gamma) + \partial_n \mathcal{V}(\mathbf{x} \in \Gamma) \\ U &= g, \quad \mathbf{x} \in \partial \Omega \end{aligned}
  • 跳跃项显式建模: nU(xΓ)=2zN(xΓ,0)ϕ(xΓ)\llbracket \partial_n U \rrbracket(\mathbf{x}_\Gamma) = 2 \cdot \partial_z \mathcal{N}(\mathbf{x}_\Gamma, 0) \cdot \|\nabla \phi(\mathbf{x}_\Gamma)\|

✅ 总结:

  • Scheme A:高精度但训练成本大,适合规则问题;
  • Scheme B:更灵活,适配中等复杂度问题;
  • Scheme C:最通用,支持变系数与复杂几何,依赖 cusp-enforcing。