• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

关于人工智能模型对代码生成安全性影响的系统文献综述。

A systematic literature review on the impact of AI models on the security of code generation.

作者信息

Negri-Ribalta Claudia, Geraud-Stewart Rémi, Sergeeva Anastasia, Lenzini Gabriele

机构信息

Security and Trust, University of Luxembourg, Luxembourg, Luxembourg.

École Normale Supérieure, Paris, France.

出版信息

Front Big Data. 2024 May 13;7:1386720. doi: 10.3389/fdata.2024.1386720. eCollection 2024.

DOI:10.3389/fdata.2024.1386720
PMID:38803522
原文链接:https://pmc.ncbi.nlm.nih.gov/articles/PMC11128619/
Abstract

INTRODUCTION

Artificial Intelligence (AI) is increasingly used as a helper to develop computing programs. While it can boost software development and improve coding proficiency, this practice offers no guarantee of security. On the contrary, recent research shows that some AI models produce software with vulnerabilities. This situation leads to the question: How serious and widespread are the security flaws in code generated using AI models?

METHODS

Through a systematic literature review, this work reviews the state of the art on how AI models impact software security. It systematizes the knowledge about the risks of using AI in coding security-critical software.

RESULTS

It reviews what security flaws of well-known vulnerabilities (e.g., the MITRE CWE Top 25 Most Dangerous Software Weaknesses) are commonly hidden in AI-generated code. It also reviews works that discuss how vulnerabilities in AI-generated code can be exploited to compromise security and lists the attempts to improve the security of such AI-generated code.

DISCUSSION

Overall, this work provides a comprehensive and systematic overview of the impact of AI in secure coding. This topic has sparked interest and concern within the software security engineering community. It highlights the importance of setting up security measures and processes, such as code verification, and that such practices could be customized for AI-aided code production.

摘要

引言

人工智能(AI)越来越多地被用作开发计算程序的辅助工具。虽然它可以促进软件开发并提高编码熟练度,但这种做法并不能保证安全性。相反,最近的研究表明,一些人工智能模型生成的软件存在漏洞。这种情况引发了一个问题:使用人工智能模型生成的代码中的安全漏洞有多严重和普遍?

方法

通过系统的文献综述,这项工作回顾了人工智能模型如何影响软件安全的最新研究状况。它将关于在编写对安全至关重要的软件时使用人工智能的风险的知识进行了系统化整理。

结果

它回顾了著名漏洞(例如,MITRE CWE最危险的25个软件弱点)中哪些安全缺陷通常隐藏在人工智能生成的代码中。它还回顾了讨论如何利用人工智能生成的代码中的漏洞来破坏安全性的相关著作,并列出了为提高此类人工智能生成的代码的安全性所做的尝试。

讨论

总体而言,这项工作对人工智能在安全编码中的影响提供了全面而系统的概述。这个话题在软件安全工程领域引发了兴趣和关注。它强调了建立安全措施和流程(如代码验证)的重要性,并且这种做法可以针对人工智能辅助的代码生产进行定制。

https://cdn.ncbi.nlm.nih.gov/pmc/blobs/74df/11128619/bccc4d618f57/fdata-07-1386720-g0003.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/74df/11128619/90b61fc1fd37/fdata-07-1386720-g0001.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/74df/11128619/025a73c71a0f/fdata-07-1386720-g0002.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/74df/11128619/bccc4d618f57/fdata-07-1386720-g0003.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/74df/11128619/90b61fc1fd37/fdata-07-1386720-g0001.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/74df/11128619/025a73c71a0f/fdata-07-1386720-g0002.jpg
https://cdn.ncbi.nlm.nih.gov/pmc/blobs/74df/11128619/bccc4d618f57/fdata-07-1386720-g0003.jpg

相似文献

1
A systematic literature review on the impact of AI models on the security of code generation.关于人工智能模型对代码生成安全性影响的系统文献综述。
Front Big Data. 2024 May 13;7:1386720. doi: 10.3389/fdata.2024.1386720. eCollection 2024.
2
Natural Language Generation and Understanding of Big Code for AI-Assisted Programming: A Review.用于人工智能辅助编程的大代码自然语言生成与理解:综述
Entropy (Basel). 2023 Jun 1;25(6):888. doi: 10.3390/e25060888.
3
The Presence, Trends, and Causes of Security Vulnerabilities in Operating Systems of IoT's Low-End Devices.物联网低端设备操作系统安全漏洞的存在、趋势和原因。
Sensors (Basel). 2021 Mar 26;21(7):2329. doi: 10.3390/s21072329.
4
Generative AI in Medical Practice: In-Depth Exploration of Privacy and Security Challenges.生成式人工智能在医疗实践中的应用:隐私与安全挑战的深入探讨。
J Med Internet Res. 2024 Mar 8;26:e53008. doi: 10.2196/53008.
5
Adoption of Deep-Learning Models for Managing Threat in API Calls with Transparency Obligation Practice for Overall Resilience.采用深度学习模型来管理 API 调用中的威胁,同时履行透明度义务,以实现全面的弹性。
Sensors (Basel). 2024 Jul 26;24(15):4859. doi: 10.3390/s24154859.
6
Vulnerabilities of Connectionist AI Applications: Evaluation and Defense.联结主义人工智能应用的漏洞:评估与防御
Front Big Data. 2020 Jul 22;3:23. doi: 10.3389/fdata.2020.00023. eCollection 2020.
7
Modeling Threats to AI-ML Systems Using STRIDE.使用 STRIDE 对 AI/ML 系统的威胁进行建模。
Sensors (Basel). 2022 Sep 3;22(17):6662. doi: 10.3390/s22176662.
8
The Impact of Artificial Intelligence on Data System Security: A Literature Review.人工智能对数据系统安全的影响:文献综述。
Sensors (Basel). 2021 Oct 23;21(21):7029. doi: 10.3390/s21217029.
9
Security Implications of AI Chatbots in Health Care.人工智能聊天机器人在医疗保健中的安全隐患。
J Med Internet Res. 2023 Nov 28;25:e47551. doi: 10.2196/47551.
10
Security Evaluation of Companion Android Applications in IoT: The Case of Smart Security Devices.物联网中安卓配套应用的安全性评估:以智能安全设备为例
Sensors (Basel). 2024 Aug 23;24(17):5465. doi: 10.3390/s24175465.

本文引用的文献

1
How-to conduct a systematic literature review: A quick guide for computer science research.如何进行系统的文献综述:计算机科学研究快速指南
MethodsX. 2022 Nov 4;9:101895. doi: 10.1016/j.mex.2022.101895. eCollection 2022.