从需求分析到代码生成,LLM都能干点啥?一文读懂291个软工Benchmark!

  新智元报道

  编辑:LRST

  大语言模型正加速重塑软件工程领域的各个环节,从需求分析到代码生成,再到自动化测试,几乎无所不能,但衡量这些模型到底「好不好用」、「好在哪里」、「还有哪些短板」,一直缺乏系统、权威的评估工具。浙江大学、新加坡管理大学、加拿大渥太华大学等机构的研究团队,首次对 291 个用于评估 LLMs 在软件工程任务中的 Benchmark 进行了系统综述,为 AI4SE 社区绘制了一份详尽的「基准地图」与方法指南。

  近年来,ChatGPT、Llama 等大语言模型在软件工程领域的能力突飞猛进,从需求分析、代码生成到测试与维护几乎无所不能。但一个核心问题是:我们如何客观评估这些模型在不同软件工程任务中的表现?

  在 SE 领域,Benchmark 既是分数卡,让不同模型在同一标准下比拼;也是方向盘,引导技术改进与未来研究方向。

  然而,现有 LLM-SE Benchmark 存在三大痛点:

  • 零散分布:缺乏覆盖全流程的软件工程任务 Benchmark 综述

  • 构建方式各异:评估指标、数据来源五花八门,难以横向比较

  • 研究空白:此前从未有系统文献综述全面汇总软件工程相关的大语言模型 Benchmark

  这使得开发者和研究者在选择评估方法时常陷入「信息孤岛」,甚至可能被不全面的评估结果误导。

  为填补这一空白,来自浙江大学、新加坡管理大学、渥太华大学等机构的团队开展了一项系统文献综述,首次全面梳理了 291 个用于评估大语言模型在软件工程任务中的 Benchmark,并从任务覆盖、语言分布、构建方式到未来趋势进行了深入分析。

  论文链接https://arxiv.org/pdf/2505.08903

  图 1 综述框架总览

  研究聚焦三大核心问题:

  • 现有 LLM-SE Benchmark 有哪些?

  • 它们是如何构建的?

  • 它们面临哪些挑战与改进机会?

  为了确保全面、系统,研究人员开展「地毯式搜索」:

  数据来源:覆盖 IEEE Xplore、ACM DL、ScienceDirect、Springer Link 等八大数据库;

  • 补充检索采用前向与后向的「滚雪球」检索,确保重要 Benchmark 不遗漏;

  • 严格筛选设置包含与排除标准,剔除与 LLM-SE 无关或信息不全的 Benchmark;

  • 质量评估从描述清晰度、SE 相关性、方法严谨性、可复现性、学术影响五个维度打分;

  • 最终成果汇总 291 个在 2025 年 6 月前发表的 Benchmark,按任务、语言、构建方式等多维度分类分析。

  六大任务全覆盖

  Benchmark 演化脉络清晰

  图 2 Benchmark 年份分布

  统计显示,自 2022 年起 Benchmark 数量快速增长,2023 和 2024 年分别新增近 70 个,增长势头迅猛。

  图 3 Benchmark 语言分布

  Python 在评估 Benchmark 中一骑绝尘,主要用于代码生成与推荐类任务;Java、C++、C语言在质量分析与维护任务中占有重要地位;Go、PHP、Ruby 等小众语言的 Benchmark 仍然稀缺。

  图 4 Benchmark 任务分布

  任务分布(六大类)

  • 需求与设计(25 个):需求获取、分类、冲突检测、规格化与验证;

  • 编码辅助(124 个):代码生成、补全、摘要、多语言迁移(占比超 40%,最多);

  • 软件测试(25 个):测试生成、GUI 测试、断言生成、自动修复;

  • AIOps(6 个):日志生成与解析;

  • 软件维护(13 个):代码审查、克隆检测、代码重构;

  • 质量管理(111 个):缺陷检测、漏洞识别、修复建议(占比 38%)。

  其中「编码辅助」任务相关 Benchmark 数量最多,占比超过 40%,其次是质量管理类任务,占比达 38%。

  现实挑战

  Benchmark 还远远不够用!

  研究指出,当前 Benchmark 建设存在五大瓶颈:

  • 任务定义模糊、评价不一致缺乏统一标准,难以横向对比;

  • 规模受限、计算成本高多数数据集规模偏小,覆盖不了复杂系统;

  • 泛化能力不足Benchmark 表现好,真实场景却「水土不服」;

  • 更新滞后难以及时跟进新技术与框架;

  • 数据隐私限制真实企业数据难以共享,影响高质量 Benchmark 建设。

  未来机会

  Benchmark 建设仍是「蓝海」

  团队提出了五大改进方向:

  • 多维评估引入准确率、可维护性、效率、安全性、可解释性等指标;

  • 跨语言、跨任务统一评估框架,提升通用性;

  • 贴近真实场景引入真实项目数据,提高落地性;

  • 人类反馈与伦理考量纳入有害性检测、隐私风险等维度;

  • 动态可扩展平台支持任务扩展、新模型接入与持续测评。

  总结

  Benchmark 是推动 LLM 落地的「发动机」

  正如作者所言——当前 LLM 在软件工程中的应用正处于「黄金发展期」,但真正能驱动其走向工业落地、提升工程可信度的,是那些更真实、更多维、更动态的 Benchmark 体系。

  这项研究不仅填补了 LLM 软件工程评估的综述空白,也为 AI4SE 研究者、开发者和企业提供了清晰的「下一步方向」。

  如果说模型是「马达」,Benchmark 就是「方向盘」。谁能把握住它,谁就能在 AI 软件工程的未来之路上走得更远。

  参考资料:

  https://arxiv.org/pdf/2505.08903