摘要:随着大语言模型(large language model, LLM)在代码生成领域的快速发展,其生成的代码在智能化基础软件供应链中的应用日益广泛.基础软件供应链中集成了大量基于LLM生成代码开发的第三方模块与组件.然而,由于LLM主要基于开源代码进行训练,训练代码中的缺陷与安全漏洞可能会导致生成代码存在潜在错误与供应链安全问题.为此,学术界有针对性地提出了EvalPlus等测试技术,但这些技术主要依赖基于概率的测试用例生成机制,难以实现对供应链关键路径的全面覆盖,导致深层次逻辑性缺陷难以被有效发现.为解决上述问题,本文提出一种融合符号执行的供应链LLM生成代码的缺陷检测方法,该方法通过符号执行挂载机制自动识别LLM生成代码的输入参数并进行适配和符号挂载,制导符号执行引擎对程序的关键路径进行精确的约束分析,生成高效的边界测试用例,从而发现现有方法难以检测到的深层逻辑性程序缺陷.本文在现有主流基准数据集上,对LMSYS Chatbot Arena中排名前11的主流LLM进行了实验评估.实验结果表明,本文方法能够更有效地检测出LLM生成代码中的逻辑性缺陷,使代码的平均测试通过率降低了3.99%至18.98%,平均测试覆盖率提高了3.31%至8.19%,有效提升了LLM生成代码的正确性和智能化基础软件供应链的安全性.