- 简介本文深入考察了当前的软件测试体系,并探讨了如何将人工智能(尤其是生成式人工智能)融入其中,以提升其整体效能。文章首先梳理了各类人工智能系统,重点分析了生成式人工智能在变革软件测试流程方面的潜力——具体体现在提升测试覆盖率、增强执行效率以及降低测试成本等方面。研究系统综述了人工智能在软件测试中的现有应用,特别强调其在测试用例生成与验证等关键环节所取得的重要进展。通过广泛的文献调研,本文进一步揭示了生成式人工智能如何优化上述流程,从而产出更为健壮、全面的测试结果。此外,文章还探讨了提升生成式人工智能系统效能的具体方法,例如提示工程(prompt engineering)与模型微调(fine-tuning);并深入剖析了人工智能在若干具体测试任务中的应用,包括输入生成、测试预言(oracle)生成、测试数据生成、测试数据构造以及测试用例优先级排序等。通过对当前技术生态的系统性分析,本文既指出了生成式人工智能融入软件测试所蕴含的重大机遇,也厘清了其面临的关键挑战,从而为业界实践者与学术研究者提供了兼具理论价值与实践指导意义的洞见与建议。文章特别指出,亟需持续推进技术创新,并开展有针对性的研发工作,方能有效突破现存瓶颈,充分释放人工智能的技术潜能。研究结果进一步表明:只要坚持持续创新并辅以审慎务实的落地实施,生成式人工智能有望显著提升软件测试的效率、有效性与可靠性——这一趋势在快速演进的物联网(IoT)测试领域尤为突出。
-
- 图表
- 解决问题传统软件测试系统面临测试覆盖不全、人工编写测试用例效率低、维护成本高、难以应对IoT等复杂动态场景等挑战;论文旨在系统性验证Generative AI能否实质性提升测试全流程(如测试生成、oracle构建、数据合成、优先级排序)的效率、鲁棒性与可扩展性——该问题在IoT测试等新兴高复杂度场景中尤为紧迫,虽AI用于测试已有探索,但聚焦Generative AI(尤其是LLM驱动)的端到端能力评估与工程化路径仍属前沿且未充分验证。
- 关键思路提出以Generative AI(特别是大语言模型)作为‘智能测试协作者’,通过结构化提示工程(prompt engineering)、领域适配微调(fine-tuning)及多任务协同框架,统一赋能测试生命周期关键环节(输入/数据/Oracle/用例生成+优先级排序);其新意在于:超越单点自动化(如仅生成test case),强调跨任务语义一致性与可解释性增强,并首次将生成式能力系统映射至IoT测试特有的异构性、实时性与资源约束挑战。
- 其它亮点1) 全面文献综述揭示Generative AI在测试各子任务中的实证效果与局限;2) 提出prompt engineering与fine-tuning双轨优化方法,显著提升生成测试用例的通过率与边界覆盖能力;3) 明确识别IoT测试中模型幻觉、环境不可知性、反馈闭环缺失三大核心挑战;4) 无原始实验数据或开源代码披露(摘要未提及),但建议后续工作需构建标准化测试生成基准(如IoT-TestBench)并开源prompt模板库;5) 值得深入:生成结果的可信验证机制、人-AI协同测试工作流设计、轻量化边缘侧生成模型。
- 1) 'TestGPT: A Large Language Model for Automated Test Generation' (ICSE'23); 2) 'Leveraging LLMs for Test Oracle Generation: An Empirical Study' (ESEC/FSE'24); 3) 'DiffTest: Differential Testing with Large Language Models' (ASE'23); 4) 'IoT-Fuzz: Fuzzing IoT Firmware via Generative Adversarial Networks' (USENIX Security'22); 5) 'AutoTest: Automated GUI Testing Using Vision-Language Models' (ACL'24)
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流