数据驱动型多物理场

分类: 連成解析 > マルチフィジックス | 更新 2026-04-12
Data-driven multiphysics workflow showing surrogate model and PINN architecture for coupled CAE simulation
データ駆動型マルチフィジックスの全体像:フルシミュレーションからサロゲート構築、能動学習による効率的設計探索までのワークフロー

理论与物理

概述 — 为何需要数据驱动

🧑‍🎓

老师,数据驱动多物理场,简单来说就是用AI解决物理问题吗?

🎓

对了一半,错了一半。关键不是“用AI完全取代物理仿真”,而是“在物理仿真速度太慢的环节让AI进行近似”。

🧑‍🎓

太慢具体是指多慢呢?

🎓

例如汽车碰撞分析(Crash),一个案例需要8到12小时。如果要同时优化NVH(振动噪声)和耐久分析,就需要耦合三个物理场并运行数千个案例。用完整的有限元法(FEM)计算需要数年时间。

🧑‍🎓

数年!那产品开发就来不及了…

🎓

是的。所以数据驱动方法应运而生。主要分为两种方法:

  • (1) 代理模型 — 将完整FEM/CFD的计算结果作为学习数据,用神经网络或高斯过程(GP)近似输入输出关系。学习后,每个案例可在数秒内预测。
  • (2) PINN(物理信息神经网络) — 将物理定律(控制方程的残差)嵌入损失函数,即使数据较少也能做出物理一致的预测。
🧑‍🎓

实际应用在哪些地方呢?

🎓

在汽车OEM的碰撞-NVH-耐久多目标优化中,基于GP的代理模型从2020年左右开始实用化。在航空发动机涡轮叶片热-结构耦合方面,NASA和Rolls-Royce也在使用多保真度代理模型。

代理模型基础

🧑‍🎓

代理模型,简单来说就是“近似公式”吗?和响应面法有什么不同?

🎓

问得好。响应面法(RSM)用二次多项式近似,当输入输出关系复杂非线性时精度不足。代理模型是更灵活的函数,用于近似完整仿真的输入输出,是“代理模型”的总称。

代理模型的一般公式化如下。对于输入参数 $\mathbf{x} \in \mathbb{R}^d$(设计变量或边界条件),构建近似高保真仿真输出 $\mathbf{y} = f(\mathbf{x})$ 的模型 $\hat{f}(\mathbf{x})$:

$$ \hat{f}(\mathbf{x}) \approx f(\mathbf{x}) \quad \text{s.t.} \quad \|\hat{f} - f\|_{\mathcal{X}} < \epsilon $$

主要代理模型方法比较:

方法特点不确定性估计学习数据量适用场景
高斯过程回归(GPR/Kriging)用核函数表达相关性自然获得少量(50〜500)设计优化、主动学习
神经网络(DNN)擅长高维输入输出MC Dropout等中〜大量(1000+)图像化场的预测
RBF(径向基函数)易于实现少〜中量平滑响应
随机森林 / XGBoost鲁棒、可解释性强集成方差中量分类与回归混合问题

高斯过程回归(GPR)

🧑‍🎓

高斯过程这名字听起来就很难,直观上它是什么?

🎓

粗略地说,是“无限维的正态分布”。它在已知数据点之间绘制平滑曲线,同时在数据缺失的地方告诉你“这里不太确定”。这种不确定性在主动学习中大显身手。

在GPR中,对于观测数据 $\mathcal{D} = \{(\mathbf{x}_i, y_i)\}_{i=1}^n$,后验分布的预测均值 $\mu_*$ 和方差 $\sigma_*^2$ 可由以下闭式得到:

$$ \mu_* = \mathbf{k}_*^T (K + \sigma_n^2 I)^{-1} \mathbf{y} $$
$$ \sigma_*^2 = k_{**} - \mathbf{k}_*^T (K + \sigma_n^2 I)^{-1} \mathbf{k}_* $$

其中 $K$ 是核矩阵($K_{ij} = k(\mathbf{x}_i, \mathbf{x}_j)$),$\mathbf{k}_*$ 是新输入点与学习数据之间的核向量,$\sigma_n^2$ 是观测噪声方差。

🧑‍🎓

核函数该怎么选呢?

🎓

CAE的响应通常很平滑,所以Matern-5/2核或RBF(平方指数)核是标准选择。如果使用各向异性核(ARD: Automatic Relevance Determination),还可以自动估计每个设计变量的重要性。

核函数选择指南
核函数公式平滑度用途
RBF(SE)$k(r) = \sigma_f^2 \exp\left(-\frac{r^2}{2l^2}\right)$无限次可微非常平滑的响应
Matern-5/2$k(r) = \sigma_f^2 \left(1 + \frac{\sqrt{5}r}{l} + \frac{5r^2}{3l^2}\right)\exp\left(-\frac{\sqrt{5}r}{l}\right)$2次可微CAE的标准选择
Matern-3/2$k(r) = \sigma_f^2 \left(1 + \frac{\sqrt{3}r}{l}\right)\exp\left(-\frac{\sqrt{3}r}{l}\right)$1次可微稍粗糙的响应

$r = \|\mathbf{x} - \mathbf{x}'\|$,$l$ 是长度尺度,$\sigma_f^2$ 是信号方差。超参数通过对数边际似然最大化决定。

PINN — 物理信息神经网络

🧑‍🎓

PINN和代理模型是完全不同的方法吗?

🎓

根本不同。代理模型从“仿真结果这种教师数据”中学习。PINN将“控制方程本身”嵌入损失函数,因此即使教师数据很少——极端情况下为零——也有可能得到物理上正确的解。

PINN的损失函数由数据拟合项和物理定律(PDE残差)项的加权和构成:

$$ \mathcal{L}_{\text{PINN}} = \underbrace{\frac{1}{N_d}\sum_{i=1}^{N_d} \|\hat{u}(\mathbf{x}_i) - u_i^{\text{obs}}\|^2}_{\text{数据项}} + \lambda_r \underbrace{\frac{1}{N_r}\sum_{j=1}^{N_r} \|\mathcal{N}[\hat{u}](\mathbf{x}_j)\|^2}_{\text{PDE残差项}} + \lambda_b \underbrace{\frac{1}{N_b}\sum_{k=1}^{N_b} \|\mathcal{B}[\hat{u}](\mathbf{x}_k)\|^2}_{\text{边界条件项}} $$

其中 $\mathcal{N}[\cdot]$ 是控制方程的微分算子,$\mathcal{B}[\cdot]$ 是边界条件算子。通过自动微分可以解析计算网络输出 $\hat{u}$ 的偏导数,因此不需要网格。

🧑‍🎓

不需要网格听起来很有吸引力…有什么缺点吗?

🎓

老实说,缺点很多。首先,$\lambda_r$ 和 $\lambda_b$ 这些权重系数的调整非常敏感,设置不当可能完全不收敛。在多物理场中,不同物理场的尺度不同(温度是数百K,应力是数百MPa),因此平衡损失项尤其困难。此外,对于高频振动或陡峭梯度的解,PINN通常表现不佳,目前在很多情况下还达不到FEM的精度。

🧑‍🎓

那PINN擅长什么场景呢?

🎓

它在反问题上很强。“想从观测数据中识别材料参数”、“想用物理定律补全实验缺失数据”——在这些场景下PINN能发挥威力。另外,对于控制方程已知但网格生成困难的复杂几何形状也有效。

DeepONet — 算子学习

🧑‍🎓

最近也常听到DeepONet这个词,它和PINN有什么区别?

🎓

PINN学习“一个问题的解”。DeepONet学习“从输入函数到输出函数的映射(算子)”。例如,“输入任意边界条件,输出温度场”这样的映射。一旦学习完成,对于新的边界条件可以立即预测场分布。

DeepONet的结构由 Branch Net(编码输入函数)和 Trunk Net(编码输出位置)的乘积表示:

$$ G_\theta(u)(y) = \sum_{k=1}^{p} b_k(u; \theta_b) \cdot t_k(y; \theta_t) + b_0 $$

其中 $u$ 是输入函数(边界条件或初始条件),$y$ 是输出的评估点,$b_k$ 是Branch Net的输出,$t_k$ 是Trunk Net的输出。Fourier Neural Operator(FNO)也是类似的算子学习,但利用傅里叶变换高效捕捉空间周期性结构。

Coffee Break 闲话角

“万能代理”不存在 — No Free Lunch定理的教训

在数据驱动建模的世界里,“不存在适用于所有问题的最优单一方法”这一No Free Lunch定理占主导地位。GPR在低维(〜20变量)平滑响应上最强,但超过100维就会面临可扩展性问题。DNN擅长高维,但学习数据少时容易过拟合。PINN可以嵌入物理定律,但需要调整超参数的“工匠技艺”。在实际工作中,“根据问题性质选择方法”——这是数据驱动多物理场的基本态度。

数值解法与实现

代理模型构建工作流

🧑‍🎓

请告诉我实际构建代理模型时的步骤。

🎓

5个步骤:

  1. 问题定义 — 确定输入变量(设计参数、材料属性、载荷条件)和输出量(最大应力、固有频率、温度等)
  2. DOE(实验设计) — 使用拉丁超立方采样(LHS)或Sobol序列生成初始样本点。维度$d$对应 $10d$〜$20d$ 点作为基准
  3. 执行高保真仿真 — 用FEM/CFD运行DOE所有点的计算,获取学习数据
  4. 模型学习 — 用GPR或DNN构建代理模型。通过交叉验证评估精度
  5. 验证与主动学习循环 — 用验证数据确认RMSE/R²,若精度不足则通过主动学习获取额外样本
🧑‍🎓

步骤2的LHS是什么?不能用随机采样吗?

🎓

随机采样可能导致“偶然在相似区域采样过多”。LHS(拉丁超立方采样)将每个变量的范围 $n$ 等分,确保从每个区间取且仅取一个点。这样能均匀覆盖设计空间。对于高成本的仿真,浪费一个点都是致命的,所以这是必备技巧。

主动学习(Active Learning)DOE

🧑‍🎓

主动学习是AI告诉我们“接下来应该计算哪里”吗?

🎓

正是如此。利用GPR的预测方差 $\sigma_*^2(\mathbf{x})$ 自动判断“这个区域不确定性还很高,需要额外样本”。贝叶斯优化中的Acquisition Function(采集函数)就是干这个的。

代表性的采集函数如下:

$$ \text{EI}(\mathbf{x}) = \mathbb{E}\left[\max(f_{\min} - \hat{f}(\mathbf{x}), 0)\right] = (f_{\min} - \mu_*)\Phi(z) + \sigma_* \phi(z) $$

其中 $z = (f_{\min} - \mu_*)/\sigma_*$,$\Phi$ 和 $\phi$ 是标准正态分布的CDF和PDF。EI(期望提升)是“期望能比当前最佳值改善多少”,能自动平衡探索与利用。

采集函数简称特点在多物理场中的适用场景
Expected ImprovementEI探索与利用平衡良好单目标优化的标准选择
Lower Confidence BoundLCB通过参数 $\kappa$ 控制探索程度带约束的优化
Knowledge GradientKG最大化信息价值噪声较大的仿真
Expected HyperVolume ImprovementEHVI帕累托前沿的改进量碰撞-NVH等多目标问题
🧑‍🎓

使用主动学习能减少多少计算成本?

🎓

根据论文和实际报告,与随机DOE相比,通常能减少50%到80%达到同等精度所需的样本数。有实际案例表明,在汽车碰撞优化中,“用150个完整FEM案例就构建了精度足够的代理模型”。而随机DOE则需要500个以上案例。

迁移学习(Transfer Learning)

🧑‍🎓

迁移学习在图像识别中印象很深,在CAE中也能用吗?

🎓

非常有用。思路很简单,“将相似问题上学习到的模型用作新问题的初始值”。例如,将某车型B柱上学习到的碰撞响应代理模型,迁移到小改款后的新B柱上。因为形状相似,只需少量微调就能得到高精度的代理模型。

🧑‍🎓

即使物理场变了也能迁移吗?比如从结构分析迁移到热分析。

🎓

那是不同物理场之间的迁移,属于更高级的话题。但在PINN的背景下,有研究将2D问题学习到的网络底层(特征提取层)迁移到3D问题。底层学习的是“梯度的空间模式”这类通用特征,所以即使物理场稍有变化,也有可用的部分。

多保真度建模

🧑‍🎓

“多保真度”是指组合粗网格和细网格吗?

🎓

正是如此。这是一种整合方法,使用大量便宜但不精确的计算(低保真度:粗网格FEM、简化模型等)和少量昂贵但精确的计算(高保真度:细网格FEM)。

Co-Kriging(多保真度高斯过程)的基本模型是:

$$ f_{\text{HF}}(\mathbf{x}) = \rho \cdot f_{\text{LF}}(\mathbf{x}) + \delta(\mathbf{x}) $$

其中 $f_{\text{HF}}$ 是高保真度输出,$f_{\text{LF}}$ 是低保真度输出,$\rho$ 是缩放系数,$\delta(\mathbf{x})$ 是表示差异的GP。即使高保真度数据很少,也能利用低保真度数据的趋势进行高精度预测。

🧑‍🎓

在实际工作中,低保真度具体用什么?

🎓

举几个常见模式:

  • 粗网格FEM(
関連シミュレーター

この分野のインタラクティブシミュレーターで理論を体感しよう

シミュレーター一覧

関連する分野

構造解析電磁界解析熱解析
この記事の評価
ご回答ありがとうございます!
参考に
なった
もっと
詳しく
誤りを
報告
参考になった
0
もっと詳しく
0
誤りを報告
0
Written by NovaSolver Contributors
Anonymous Engineers & AI — サイトマップ
关于作者