随着基于大模型的 AI 系统的流行,越来越多的人使用它们去寻找 bug 和报告 bug。但众所周知大模型有“幻觉”,也就是会胡说八道,它们产生的结果通常似是而非,需要人花时间去进行判断。如果一名开源维护者收到了大量 AI 产生的 bug 报告,那么他们宝贵的时间就被浪费在鉴别 bug 报告的有效性上。
Python 软件基金会安全研究员 Seth Larson 呼吁不要使用 AI 报告 Bug,认为低质量的报告应该被视为是恶意的。Curl 维护者 Daniel Stenberg 称低质量的 AI 报告给维护者带来了不必要的负担。Larson 认为开源社区应尽早采取行动,建议 bug 报告者在未经人工验证的情况下不要提交报告。