组合元学习新方法:LAM-PINN 有效缓解物理信息神经网络的任务异质性
物理信息神经网络(PINN)通过将物理定律嵌入损失函数来逼近偏微分方程(PDE)的解。在处理参数化 PDE 族时,系数或边界/初始条件的变化定义了不同的任务,为每个任务单独训练 PINN 计算成本高昂,而跨任务迁移又容易受到任务异质性的影响。元学习虽能降低再训练成本,但现有方法通常依赖单一全局初始化,在特征稀缺的坐标输入和有限训练任务下容易产生负迁移。
针对这一挑战,韩国高丽大学的研究团队提出了一种名为 LAM-PINN(Learning-Affinity Adaptive Modular Physics-Informed Neural Network)的组合框架。该框架通过利用任务特定的学习动态来缓解任务异质性。LAM-PINN 的核心思路是:首先,将 PDE 参数与来自简短迁移会话的学习亲和度指标相结合,构建任务表示,并实现任务聚类——即使仅使用坐标输入也能有效聚类。然后,将模型分解为多个聚类专用子网络和一个共享元网络,并学习路由权重以选择性重用模块,而非依赖单一的全局初始化。这种模块化设计使得模型能够针对不同任务动态组合最合适的子网络,从而避免负迁移。
在三个 PDE 基准测试上,LAM-PINN 取得了显著效果:对于未见过的任务,平均均方误差(MSE)降低了 19.7 倍,且仅需传统 PINN 所需训练迭代次数的 10%。这一结果表明,在资源受限的工程场景中,LAM-PINN 能有效泛化到参数化 PDE 族有界设计空间内的未见过配置。
关键创新点
- 任务表示与聚类:结合 PDE 参数和学习动态,实现无监督任务聚类。
- 模块化组合:通过路由权重动态选择专用子网络和共享网络,避免全局初始化带来的负迁移。
- 高效迁移:仅需少量训练迭代即可在新任务上取得高精度。
行业意义
该研究为科学计算和工程模拟中的 PINN 应用提供了新的思路。在航空航天、流体力学等需要反复求解不同参数 PDE 的领域,LAM-PINN 有望大幅降低计算成本,推动 PINN 从实验室走向实际工程部署。未来,该框架还有望扩展到更复杂的 PDE 系统和多物理场耦合问题。