数据驱动型多物理场
理论与物理
概述 — 为何需要数据驱动
老师,数据驱动多物理场,简单来说就是用AI解决物理问题吗?
对了一半,错了一半。关键不是“用AI完全取代物理仿真”,而是“在物理仿真速度太慢的环节让AI进行近似”。
太慢具体是指多慢呢?
例如汽车碰撞分析(Crash),一个案例需要8到12小时。如果要同时优化NVH(振动噪声)和耐久分析,就需要耦合三个物理场并运行数千个案例。用完整的有限元法(FEM)计算需要数年时间。
数年!那产品开发就来不及了…
是的。所以数据驱动方法应运而生。主要分为两种方法:
- (1) 代理模型 — 将完整FEM/CFD的计算结果作为学习数据,用神经网络或高斯过程(GP)近似输入输出关系。学习后,每个案例可在数秒内预测。
- (2) PINN(物理信息神经网络) — 将物理定律(控制方程的残差)嵌入损失函数,即使数据较少也能做出物理一致的预测。
实际应用在哪些地方呢?
在汽车OEM的碰撞-NVH-耐久多目标优化中,基于GP的代理模型从2020年左右开始实用化。在航空发动机涡轮叶片热-结构耦合方面,NASA和Rolls-Royce也在使用多保真度代理模型。
代理模型基础
代理模型,简单来说就是“近似公式”吗?和响应面法有什么不同?
问得好。响应面法(RSM)用二次多项式近似,当输入输出关系复杂非线性时精度不足。代理模型是更灵活的函数,用于近似完整仿真的输入输出,是“代理模型”的总称。
代理模型的一般公式化如下。对于输入参数 $\mathbf{x} \in \mathbb{R}^d$(设计变量或边界条件),构建近似高保真仿真输出 $\mathbf{y} = f(\mathbf{x})$ 的模型 $\hat{f}(\mathbf{x})$:
主要代理模型方法比较:
| 方法 | 特点 | 不确定性估计 | 学习数据量 | 适用场景 |
|---|---|---|---|---|
| 高斯过程回归(GPR/Kriging) | 用核函数表达相关性 | 自然获得 | 少量(50〜500) | 设计优化、主动学习 |
| 神经网络(DNN) | 擅长高维输入输出 | MC Dropout等 | 中〜大量(1000+) | 图像化场的预测 |
| RBF(径向基函数) | 易于实现 | 无 | 少〜中量 | 平滑响应 |
| 随机森林 / XGBoost | 鲁棒、可解释性强 | 集成方差 | 中量 | 分类与回归混合问题 |
高斯过程回归(GPR)
高斯过程这名字听起来就很难,直观上它是什么?
粗略地说,是“无限维的正态分布”。它在已知数据点之间绘制平滑曲线,同时在数据缺失的地方告诉你“这里不太确定”。这种不确定性在主动学习中大显身手。
在GPR中,对于观测数据 $\mathcal{D} = \{(\mathbf{x}_i, y_i)\}_{i=1}^n$,后验分布的预测均值 $\mu_*$ 和方差 $\sigma_*^2$ 可由以下闭式得到:
其中 $K$ 是核矩阵($K_{ij} = k(\mathbf{x}_i, \mathbf{x}_j)$),$\mathbf{k}_*$ 是新输入点与学习数据之间的核向量,$\sigma_n^2$ 是观测噪声方差。
核函数该怎么选呢?
CAE的响应通常很平滑,所以Matern-5/2核或RBF(平方指数)核是标准选择。如果使用各向异性核(ARD: Automatic Relevance Determination),还可以自动估计每个设计变量的重要性。
核函数选择指南
| 核函数 | 公式 | 平滑度 | 用途 |
|---|---|---|---|
| RBF(SE) | $k(r) = \sigma_f^2 \exp\left(-\frac{r^2}{2l^2}\right)$ | 无限次可微 | 非常平滑的响应 |
| Matern-5/2 | $k(r) = \sigma_f^2 \left(1 + \frac{\sqrt{5}r}{l} + \frac{5r^2}{3l^2}\right)\exp\left(-\frac{\sqrt{5}r}{l}\right)$ | 2次可微 | CAE的标准选择 |
| Matern-3/2 | $k(r) = \sigma_f^2 \left(1 + \frac{\sqrt{3}r}{l}\right)\exp\left(-\frac{\sqrt{3}r}{l}\right)$ | 1次可微 | 稍粗糙的响应 |
$r = \|\mathbf{x} - \mathbf{x}'\|$,$l$ 是长度尺度,$\sigma_f^2$ 是信号方差。超参数通过对数边际似然最大化决定。
PINN — 物理信息神经网络
PINN和代理模型是完全不同的方法吗?
根本不同。代理模型从“仿真结果这种教师数据”中学习。PINN将“控制方程本身”嵌入损失函数,因此即使教师数据很少——极端情况下为零——也有可能得到物理上正确的解。
PINN的损失函数由数据拟合项和物理定律(PDE残差)项的加权和构成:
其中 $\mathcal{N}[\cdot]$ 是控制方程的微分算子,$\mathcal{B}[\cdot]$ 是边界条件算子。通过自动微分可以解析计算网络输出 $\hat{u}$ 的偏导数,因此不需要网格。
不需要网格听起来很有吸引力…有什么缺点吗?
老实说,缺点很多。首先,$\lambda_r$ 和 $\lambda_b$ 这些权重系数的调整非常敏感,设置不当可能完全不收敛。在多物理场中,不同物理场的尺度不同(温度是数百K,应力是数百MPa),因此平衡损失项尤其困难。此外,对于高频振动或陡峭梯度的解,PINN通常表现不佳,目前在很多情况下还达不到FEM的精度。
那PINN擅长什么场景呢?
它在反问题上很强。“想从观测数据中识别材料参数”、“想用物理定律补全实验缺失数据”——在这些场景下PINN能发挥威力。另外,对于控制方程已知但网格生成困难的复杂几何形状也有效。
DeepONet — 算子学习
最近也常听到DeepONet这个词,它和PINN有什么区别?
PINN学习“一个问题的解”。DeepONet学习“从输入函数到输出函数的映射(算子)”。例如,“输入任意边界条件,输出温度场”这样的映射。一旦学习完成,对于新的边界条件可以立即预测场分布。
DeepONet的结构由 Branch Net(编码输入函数)和 Trunk Net(编码输出位置)的乘积表示:
其中 $u$ 是输入函数(边界条件或初始条件),$y$ 是输出的评估点,$b_k$ 是Branch Net的输出,$t_k$ 是Trunk Net的输出。Fourier Neural Operator(FNO)也是类似的算子学习,但利用傅里叶变换高效捕捉空间周期性结构。
“万能代理”不存在 — No Free Lunch定理的教训
在数据驱动建模的世界里,“不存在适用于所有问题的最优单一方法”这一No Free Lunch定理占主导地位。GPR在低维(〜20变量)平滑响应上最强,但超过100维就会面临可扩展性问题。DNN擅长高维,但学习数据少时容易过拟合。PINN可以嵌入物理定律,但需要调整超参数的“工匠技艺”。在实际工作中,“根据问题性质选择方法”——这是数据驱动多物理场的基本态度。
数值解法与实现
代理模型构建工作流
请告诉我实际构建代理模型时的步骤。
5个步骤:
- 问题定义 — 确定输入变量(设计参数、材料属性、载荷条件)和输出量(最大应力、固有频率、温度等)
- DOE(实验设计) — 使用拉丁超立方采样(LHS)或Sobol序列生成初始样本点。维度$d$对应 $10d$〜$20d$ 点作为基准
- 执行高保真仿真 — 用FEM/CFD运行DOE所有点的计算,获取学习数据
- 模型学习 — 用GPR或DNN构建代理模型。通过交叉验证评估精度
- 验证与主动学习循环 — 用验证数据确认RMSE/R²,若精度不足则通过主动学习获取额外样本
步骤2的LHS是什么?不能用随机采样吗?
随机采样可能导致“偶然在相似区域采样过多”。LHS(拉丁超立方采样)将每个变量的范围 $n$ 等分,确保从每个区间取且仅取一个点。这样能均匀覆盖设计空间。对于高成本的仿真,浪费一个点都是致命的,所以这是必备技巧。
主动学习(Active Learning)DOE
主动学习是AI告诉我们“接下来应该计算哪里”吗?
正是如此。利用GPR的预测方差 $\sigma_*^2(\mathbf{x})$ 自动判断“这个区域不确定性还很高,需要额外样本”。贝叶斯优化中的Acquisition Function(采集函数)就是干这个的。
代表性的采集函数如下:
其中 $z = (f_{\min} - \mu_*)/\sigma_*$,$\Phi$ 和 $\phi$ 是标准正态分布的CDF和PDF。EI(期望提升)是“期望能比当前最佳值改善多少”,能自动平衡探索与利用。
| 采集函数 | 简称 | 特点 | 在多物理场中的适用场景 |
|---|---|---|---|
| Expected Improvement | EI | 探索与利用平衡良好 | 单目标优化的标准选择 |
| Lower Confidence Bound | LCB | 通过参数 $\kappa$ 控制探索程度 | 带约束的优化 |
| Knowledge Gradient | KG | 最大化信息价值 | 噪声较大的仿真 |
| Expected HyperVolume Improvement | EHVI | 帕累托前沿的改进量 | 碰撞-NVH等多目标问题 |
使用主动学习能减少多少计算成本?
根据论文和实际报告,与随机DOE相比,通常能减少50%到80%达到同等精度所需的样本数。有实际案例表明,在汽车碰撞优化中,“用150个完整FEM案例就构建了精度足够的代理模型”。而随机DOE则需要500个以上案例。
迁移学习(Transfer Learning)
迁移学习在图像识别中印象很深,在CAE中也能用吗?
非常有用。思路很简单,“将相似问题上学习到的模型用作新问题的初始值”。例如,将某车型B柱上学习到的碰撞响应代理模型,迁移到小改款后的新B柱上。因为形状相似,只需少量微调就能得到高精度的代理模型。
即使物理场变了也能迁移吗?比如从结构分析迁移到热分析。
那是不同物理场之间的迁移,属于更高级的话题。但在PINN的背景下,有研究将2D问题学习到的网络底层(特征提取层)迁移到3D问题。底层学习的是“梯度的空间模式”这类通用特征,所以即使物理场稍有变化,也有可用的部分。
多保真度建模
“多保真度”是指组合粗网格和细网格吗?
正是如此。这是一种整合方法,使用大量便宜但不精确的计算(低保真度:粗网格FEM、简化模型等)和少量昂贵但精确的计算(高保真度:细网格FEM)。
Co-Kriging(多保真度高斯过程)的基本模型是:
其中 $f_{\text{HF}}$ 是高保真度输出,$f_{\text{LF}}$ 是低保真度输出,$\rho$ 是缩放系数,$\delta(\mathbf{x})$ 是表示差异的GP。即使高保真度数据很少,也能利用低保真度数据的趋势进行高精度预测。
在实际工作中,低保真度具体用什么?
举几个常见模式:
- 粗网格FEM(
相关主题
なった
詳しく
報告