流体力学专用版DeepSeek,单GPU可跑,成本节约高达100倍

  又一专业领域成功引入 AI 工程师!

  而且还是基于 DeepSeek、Qwen 等国产大模型打造,国内研究人员都能用的那种。

  不卖关子了,这就是由英国埃克塞特大学初旭副教授团队北航王文康副教授团队联合打造的OpenFOAMGPT,将 AI 工程师成功引入计算流体力学(CFD)领域。

  作为一门介于数学、流体力学和计算机之间的交叉学科,CFD 主要研究如何通过计算机和数值方法来求解流体力学的控制方程,对流体力学问题进行模拟和分析。

  而两位华人副教授领衔的这项研究,主要贡献在于:通过使用国产模型将相关成本狠狠打下来了。

  在保持相近性能的前提下,国产的 DeepSeek V3 和 Qwen 2.5-Max 与国外顶级商业模型相比,可实现高达 100 倍的成本节约

  并且还支持本地化部署,团队使用QwQ-32B 模型成功实现了本地化运行。

  具体咋回事儿?下面详细来看。

  基于国产模型的 AI CFD 工程师

  整体而言,在将 AI 工程师引入 CFD 领域这件事上,团队这次主要实现了“国产化替代”,并探索了在单 GPU 环境下的本地部署方案。

  一切的一切,都是为了实现降低成本这一核心目标。

  据了解,CFD 领域的网格划分、边界条件设置、求解器选择等工作通常需要专业工程师投入大量时间,且操作过程中容错空间极小。

  而在之前的研究中,初旭团队开发的 OpenFOAMGPT 已经能够实现,让研究者通过简单自然语言(如“构建三维湍流气泡上浮模型”或“将湍流模型从k-ε切换到 LES”等),自动生成并修正相应的 OpenFOAM 代码。

  这一方式显著降低了 CFD 仿真的使用门槛,不过当时 OpenFOAMGPT 使用的还是GPT-4o 和 o1 模型,不仅价格昂贵,而且不便于国内研究者使用。

  于是这次,两个团队联合推出最新版 OpenFOAMGPT,成功整合了两款领先的国产大语言模型:

  • DeepSeek V3(671B)
  • Qwen 2.5-Max:通义千问旗舰版模型

  加上之前的 GPT-4o 和 o1 模型,团队接下来进行了一系列 zero shot 的 CFD 案例测试,包括 falling droplets 和 rising bubble 等经典复杂场景。

  模型价格和实验表现如下:

  研究结果表明,在保持相近性能的前提下,国产的 DeepSeek V3 和 Qwen 2.5-Max 与国外顶级商业模型相比,可实现高达 100 倍的成本节约,为科研机构与中小企业提供了更具经济性的技术选择。

  此外,团队还成功尝试了本地部署方案,使用 QwQ-32B 模型实现本地化运行。

  团队表示,虽然目前大语言模型在 CFD 自动化应用中仍面临挑战,但未来可从模型微调、多模态融合等方向改进,以实现更高效的 CFD 解决方案。

  团队介绍

  如开头所言,这项研究由英国埃克塞特大学初旭副教授与北航王文康副教授领衔,其余作者包括:

  • 徐冉:初旭团队德国斯图加特大学博士生,共同第一作者
  • 冯晶森:初旭团队埃克塞特大学博士生
  • 张清福:北京航空航天大学流体力学研究所
  • Sandeep Pandey:初旭团队毕业博士

  团队表示,这项研究的重要意义在于:

  1、降低专业门槛:OpenFOAMGPT 让非专业人员能够通过自然语言描述需求,无需深入学习复杂的 OpenFOAM 命令与参数,即可完成基础案例构建与优化调整。

  2、成本与灵活性优化:不同规模的用户群体可根据精度需求、上下文要求和预算限制,灵活选择 DeepSeek 或 Qwen 模型,甚至可选择在本地环境部署小型模型进行试验。

  3、跨领域应用前景:该技术框架有望与 Ansys、COMSOL 等主流 CAE 软件深度融合,进一步拓展 AI 在自动化仿真、并行参数调优和实时优化等领域的应用空间。

  4、人机协作的价值:研究团队强调,鉴于 CFD 问题本身的物理复杂性和大语言模型生成内容的不确定性,专业人员的监督与审核仍是保障模拟准确性和数值稳定性的关键环节。

  更多细节欢迎查阅原论文。

  论文:

  https://arxiv.org/abs/2504.02888