0

0

为何GPT-4P容易受到多模态提示注入图像攻击?

WBOY

WBOY

发布时间:2023-10-30 15:21:17

|

1452人浏览过

|

来源于51CTO.COM

转载

OpenAI新的GPT-4V版本支持图像上传后,带来了一条全新的攻击途径,使大型语言模型(LLM)容易受到多模态注入图像攻击。攻击者可以在图像中嵌入命令、恶意脚本和代码,随后模型会遵从行事。

多模态提示注入图像攻击可以泄露数据、重定向查询、生成错误信息,并执行更复杂的脚本以重新定义LLM如何解释数据。它们可以改变LLM的用途,使其忽略之前设置的安全护栏,执行可能危及企业组织的命令,从而构成从欺诈到操作破坏的各种威胁。

所有使用LLM作为工作流程一部分的企业都面临着困境,但那些将LLM用作其业务核心,用于图像分析和分类的企业面临着最大的风险。攻击者利用各种技术可以迅速改变图像的解释和分类方式,从而导致更加混乱的结果

当LLM的提示被覆盖时,恶意命令和执行脚本更容易被忽视。攻击者可以通过在上传到LLM的一系列图像中嵌入命令,来进行欺诈和操作破坏,并且还可以促进社会工程攻击

图像是LLM无法防御的攻击途径

由于LLM在其处理过程中没有进行数据清理的步骤,所以每个图像都是不可靠的。就像在没有对每个数据集、应用程序或资源进行访问控制的情况下,让身份在网络上自由漫游是非常危险的,上传到LLM中的图像同样存在危险

企业拥有私有LLM的情况下,必须将最小特权访问作为核心网络安全策略采用

Simon Willison最近在一篇博文中详细解释了GPT-4V为什么成为了提示注入攻击的主要途径,并指出LLM在根本上很容易受骗。博文链接:https://simonwillison.net/2023/Oct/14/multi-modal-prompt-injection/

Willison展示了如何通过提示注入来劫持自主人工智能代理,例如Auto-GPT。他详细解释了一个简单的视觉提示注入示例,从在单个图像中嵌入命令开始,逐渐发展成一个可视化提示注入渗透攻击

英国BDO公司的数据分析和人工智能高级经理Paul Ekwere表示:“注入攻击对LLM的安全性和可靠性构成了严重威胁,特别是对处理图像或视频的基于视觉的模型。这些模型广泛应用于人脸识别、自动驾驶、医疗诊断和监控等领域。”

OpenAI目前还没有针对多模态提示注入图像攻击的解决方案,用户和企业只能依靠自己。英伟达开发者网站上的一篇博文(https://developer.nvidia.com/blog/mitigating-stored-prompt-injection-attacks-against-llm-applications/)提供了一些建议,包括对所有数据存储和系统强制执行最小权限访问

多模态提示注入图像攻击的工作原理

多模态提示注入攻击利用了GPT-4V处理视觉图像方面的漏洞,以执行未被检测到的恶意命令,GPT-4V依靠视觉转换编码器将图像转换成潜在空间表示,图像和文本数据被结合起来以生成响应。

模型没有在编码之前对视觉输入进行清洗的方法。攻击者可以嵌入任意数量的命令,GPT-4会认为它们是合法的命令。自动对私有LLM进行多模态提示注入攻击的攻击者不会被注意到。

遏制注入图像攻击

令人不安的是,图像这条未受防护的攻击途径的问题在于,攻击者可能会使LLM训练的数据随着时间的推移变得不那么可信,数据保真度也会渐渐降低。

最近的一篇研究论文(https://arxiv.org/pdf/2306.05499.pdf)提供了有关如何更好地保护LLM免受提示注入攻击的指导方针。为了确定风险程度和潜在解决方案,研究人员组进行了一系列实验,旨在评估注入攻击对整合LLM的应用程序的有效性。研究小组发现,31个整合LLM的应用程序容易受到注入攻击的影响

该研究论文就遏制注入图像攻击提出了以下建议:

改善用户输入的清洁度和验证程序

对于在私有LLM方面奉行标准化的企业来说,身份访问管理(IAM)和最小特权访问是基本配置。LLM提供商需要考虑在传递图像数据进行处理之前先进行更全面的清洁

需要进行改写的内容是:2. 对于平台架构进行改进,将用户输入和系统逻辑进行分离

目的应该是消除用户输入直接影响LLM代码和数据的风险。任何图像提示都需要加以处理,以免影响内部逻辑或工作流程。

使用多阶段处理工作流程来识别恶意攻击

我们可以建立一个多阶段流程,以尽早捕获基于图像的攻击,从而更好地管理这种威胁

4. 定制防止越狱的防御提示

越狱是一种常见的提示工程技术,用于误导LLM执行非法行为,将提示附加到看起来恶意的图像输入中有助于保护LLM。然而研究人员警告说,高级攻击仍然可以绕过这种方法。

一种势头迅猛的威胁

随着越来越多的LLM转变为多模态模型,图像成为攻击者可以依赖的最新威胁途径,用于绕过和重新定义防护措施。基于图像的攻击的严重程度各不相同,有些是简单的命令,有些则是更复杂的攻击场景(旨在造成工业破坏和传播广泛的错误信息)

本文来源于:https://venturebeat.com/security/why-gpt-4-is-vulnerable-to-multimodal-prompt-injection-image-attacks/。如需转载,请注明出处

宣小二
宣小二

宣小二:媒体发稿平台,自媒体发稿平台,短视频矩阵发布平台,基于AI驱动的企业自助式投放平台。

下载

相关专题

更多
人工智能在生活中的应用
人工智能在生活中的应用

人工智能在生活中的应用有语音助手、无人驾驶、金融服务、医疗诊断、智能家居、智能推荐、自然语言处理和游戏设计等。本专题为大家提供人工智能相关的文章、下载、课程内容,供大家免费下载体验。

411

2023.08.17

人工智能的基本概念是什么
人工智能的基本概念是什么

人工智能的英文缩写为AI,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

305

2024.01.09

人工智能不能取代人类的原因是什么
人工智能不能取代人类的原因是什么

人工智能不能取代人类的原因包括情感与意识、创造力与想象力、伦理与道德、社会交往与沟通能力、灵活性与适应性、持续学习和自我提升等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

631

2024.09.10

Python 人工智能
Python 人工智能

本专题聚焦 Python 在人工智能与机器学习领域的核心应用,系统讲解数据预处理、特征工程、监督与无监督学习、模型训练与评估、超参数调优等关键知识。通过实战案例(如房价预测、图像分类、文本情感分析),帮助学习者全面掌握 Python 机器学习模型的构建与实战能力。

34

2025.10.21

数据分析的方法
数据分析的方法

数据分析的方法有:对比分析法,分组分析法,预测分析法,漏斗分析法,AB测试分析法,象限分析法,公式拆解法,可行域分析法,二八分析法,假设性分析法。php中文网为大家带来了数据分析的相关知识、以及相关文章等内容。

466

2023.07.04

数据分析方法有哪几种
数据分析方法有哪几种

数据分析方法有:1、描述性统计分析;2、探索性数据分析;3、假设检验;4、回归分析;5、聚类分析。本专题为大家提供数据分析方法的相关的文章、下载、课程内容,供大家免费下载体验。

279

2023.08.07

网站建设功能有哪些
网站建设功能有哪些

网站建设功能包括信息发布、内容管理、用户管理、搜索引擎优化、网站安全、数据分析、网站推广、响应式设计、社交媒体整合和电子商务等功能。这些功能可以帮助网站管理员创建一个具有吸引力、可用性和商业价值的网站,实现网站的目标。

731

2023.10.16

数据分析网站推荐
数据分析网站推荐

数据分析网站推荐:1、商业数据分析论坛;2、人大经济论坛-计量经济学与统计区;3、中国统计论坛;4、数据挖掘学习交流论坛;5、数据分析论坛;6、网站数据分析;7、数据分析;8、数据挖掘研究院;9、S-PLUS、R统计论坛。想了解更多数据分析的相关内容,可以阅读本专题下面的文章。

508

2024.03.13

Java JVM 原理与性能调优实战
Java JVM 原理与性能调优实战

本专题系统讲解 Java 虚拟机(JVM)的核心工作原理与性能调优方法,包括 JVM 内存结构、对象创建与回收流程、垃圾回收器(Serial、CMS、G1、ZGC)对比分析、常见内存泄漏与性能瓶颈排查,以及 JVM 参数调优与监控工具(jstat、jmap、jvisualvm)的实战使用。通过真实案例,帮助学习者掌握 Java 应用在生产环境中的性能分析与优化能力。

19

2026.01.20

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Django 教程
Django 教程

共28课时 | 3.3万人学习

Go 教程
Go 教程

共32课时 | 4万人学习

TypeScript 教程
TypeScript 教程

共19课时 | 2.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号