0

0

ChatGPT 和大型语言模型:有什么风险?

PHPz

PHPz

发布时间:2023-04-08 10:41:05

|

1499人浏览过

|

来源于51CTO.COM

转载

大型语言模型 (LLM) 和 AI 聊天机器人引起了全世界的兴趣,原因是 2022 年底发布的 ChatGPT 及其提供的查询便利性。它现在是有史以来增长最快的消费者应用程序之一,它的受欢迎程度正促使许多竞争对手开发他们自己的服务和模型,或者快速部署他们一直在内部开发的服务和模型。

与任何新兴技术一样,人们总是担心这对安全意味着什么。该博客在近期更广泛地考虑了 ChatGPT 和 LLM 的一些网络安全方面。

什么是 ChatGPT,什么是LLMs?

ChatGPT 是由美国科技初创公司 OpenAI 开发的人工智能聊天机器人。它基于GPT-3,这是一种于 2020 年发布的语言模型,它使用深度学习来生成类似人类的文本,但底层的 LLM 技术已经存在了很长时间。

法学硕士是算法在大量基于文本的数据上进行训练的地方,这些数据通常是从开放的互联网上抓取的,因此涵盖了网页和——取决于法学硕士——其他来源,如科学研究、书籍或社交媒体帖子. 这涵盖了如此大量的数据,以至于不可能在摄取时过滤掉所有令人反感或不准确的内容,因此“有争议的”内容很可能包含在其模型中。

这些算法分析不同单词之间的关系,并将其转化为概率模型。然后可以给算法一个“提示”(例如,通过问它一个问题),它会根据其模型中单词的关系提供答案。

通常,其模型中的数据在训练后是静态的,尽管它可以通过“微调”(对额外数据进行训练)和“提示增强”(提供有关问题的上下文信息)进行改进。提示增强的示例可能是:

Taking into account the below information, how would you describe...

然后将可能大量的文本(或整个文档)复制到提示/问题中。

ChatGPT有效地允许用户向 LLM 提问,就像您在与聊天机器人进行对话时一样。最近的其他 LLM 示例包括Google 的 Bard和Meta 的 LLaMa(用于科学论文)的公告。

法学硕士无疑令人印象深刻,因为它们能够以多种人类和计算机语言生成大量令人信服的内容。然而,它们不是魔法,也不是通用人工智能,并且包含一些严重的缺陷,包括:

  • 他们可能会弄错事情并“产生幻觉”不正确的事实
  • 他们可能有偏见,通常容易上当受骗(例如,在回答主要问题时)
  • 他们需要巨大的计算资源和海量数据来从头开始训练
  • 他们可以被哄骗创造有毒内容并且容易受到“注射攻击”

LLM 会泄露我的信息吗?

一个普遍的担忧是 LLM 可能会从您的提示中“学习”,并将该信息提供给查询相关内容的其他人。这里有一些令人担忧的原因,但不是出于许多人考虑的原因。当前,对 LLM 进行训练,然后查询生成的模型。LLM 不会(在撰写本文时)自动将查询中的信息添加到其模型中以供其他人查询。也就是说,在查询中包含信息不会导致该数据被并入 LLM。

但是,查询将对提供 LLM 的组织可见(对于 ChatGPT,对 OpenAI 也是如此)。这些查询被存储起来,几乎肯定会在某个时候用于开发 LLM 服务或模型。这可能意味着 LLM 提供者(或其合作伙伴/承包商)能够读取查询,并可能以某种方式将它们合并到未来的版本中。因此,在提出敏感问题之前,需要彻底了解使用条款和隐私政策。

一个问题可能是敏感的,因为查询中包含数据,或者因为谁(以及何时)提出问题。后者的例子可能是,如果发现 CEO 曾问过“如何最好地解雇员工?”,或者有人问了暴露健康或人际关系的问题。还要记住使用同一登录名跨多个查询聚合信息。

另一个风险随着越来越多的组织生产 LLM 而增加,它是在线存储的查询可能被黑客攻击、泄露,或者更有可能意外地公开访问。这可能包括潜在的用户身份信息。另一个风险是 LLM 的运营商后来被一个组织收购,该组织采用与用户输入数据时不同的隐私方法。

因此,NCSC 建议:

  • 不要在对公共 LLM 的查询中包含敏感信息
  • 不要向公开的 LLM 提交会导致问题的查询

我如何安全地向 LLM 提供敏感信息?

随着 LLM 的兴起,许多组织可能想知道他们是否可以使用 LLM 来自动化某些业务任务,这可能涉及通过微调或及时扩充来提供敏感信息。虽然不建议将此方法用于公共 LLM,但“私有 LLM”可能由云提供商提供(例如),或者可以完全自行托管:

  • 对于云提供的 LLM,使用条款和隐私政策再次成为关键(因为它们对于公共 LLM),但更有可能符合云服务的现有条款。组织需要了解如何管理用于微调或提示扩充的数据。供应商的研究人员或合作伙伴是否可以使用它?如果是这样,以什么形式?数据是单独共享还是与其他组织汇总共享?提供商的员工在什么情况下可以查看查询?
  • 自托管 LLM可能非常昂贵。但是,经过安全评估,它们可能适合处理组织数据。特别是,组织应参考我们关于保护基础设施和数据供应链的指南。

LLMs是否让网络罪犯的生活更轻松?

已经有一些令人难以置信的演示证明 LLM 如何帮助编写恶意软件。令人担忧的是,LLM 可能会帮助怀有恶意(但技能不足)的人创建他们原本无法部署的工具。在他们目前的状态下,LLMs 看起来令人信服(无论他们是否),并且适合简单的任务而不是复杂的任务。这意味着 LLM 可用于“帮助专家节省时间”,因为专家可以验证 LLM 的输出。

对于更复杂的任务,专家目前更容易从头开始创建恶意软件,而不必花时间纠正 LLM 生成的内容。但是,能够创建功能强大的恶意软件的专家很可能能够诱使 LLM 编写功能强大的恶意软件。“使用 LLM 从头开始创建恶意软件”和“验证 LLM 创建的恶意软件”之间的权衡将随着 LLM 的改进而改变。

也可以询问LLM以就技术问题提出建议。犯罪分子可能会使用 LLM 来帮助进行超出其当前能力的网络攻击,尤其是在攻击者访问网络后。例如,如果攻击者正在努力提升权限或查找数据,他们可能会询问 LLM,并收到与搜索引擎结果不同但具有更多上下文的答案。当前的 LLM 提供了听起来令人信服的答案,但可能只是部分正确,尤其是当该主题变得更加利基时。这些答案可能会帮助犯罪分子进行他们无法以其他方式执行的攻击,或者他们可能会建议采取哪些行动来加快对犯罪分子的侦查。无论哪种方式,攻击者的查询都可能被 LLM 操作员存储和保留。

由于 LLM 擅长按需复制写作风格,因此存在犯罪分子使用 LLM 编写令人信服的网络钓鱼电子邮件(包括多种语言的电子邮件)的风险。这可以帮助具有高技术能力但缺乏语言技能的攻击者,帮助他们使用目标的母语创建令人信服的网络钓鱼电子邮件(或进行社会工程)。

总而言之,在短期内我们可能会看到:

  • 由于 LLM,更有说服力的网络钓鱼电子邮件
  • 攻击者尝试他们以前不熟悉的技术

技能较低的攻击者编写功能强大的恶意软件的风险也很低。

总结

对于LLM来说,这是一个激动人心的时刻,尤其是 ChatGPT 吸引了全世界的想象力。与所有技术发展一样,会有人热衷于使用它并研究它所提供的功能,以及可能永远不会使用它的人。

正如我们在上面概述的那样,毫无疑问,不受限制地使用公共 LLM 存在风险。个人和组织应格外小心他们选择在提示中提交的数据。您应该确保那些想要尝试 LLM 的人能够,但不会将组织数据置于风险之中。

NCSC 意识到与网络安全和 LLM 的采用有关的其他新出现的威胁(和机会),我们当然会在以后的博文中让您了解这些。

David C - 平台研究技术总监Paul J - 数据科学研究技术总监

——编译自英国NCSC

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
chatgpt使用指南
chatgpt使用指南

本专题整合了chatgpt使用教程、新手使用说明等等相关内容,阅读专题下面的文章了解更多详细内容。

0

2026.03.16

chatgpt官网入口地址合集
chatgpt官网入口地址合集

本专题整合了chatgpt官网入口地址、使用教程等内容,阅读专题下面的文章了解更多详细内容。

0

2026.03.16

minimax入口地址汇总
minimax入口地址汇总

本专题整合了minimax相关入口合集,阅读专题下面的文章了解更多详细地址。

4

2026.03.16

C++多线程并发控制与线程安全设计实践
C++多线程并发控制与线程安全设计实践

本专题围绕 C++ 在高性能系统开发中的并发控制技术展开,系统讲解多线程编程模型与线程安全设计方法。内容包括互斥锁、读写锁、条件变量、原子操作以及线程池实现机制,同时结合实际案例分析并发竞争、死锁避免与性能优化策略。通过实践讲解,帮助开发者掌握构建稳定高效并发系统的关键技术。

7

2026.03.16

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

114

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

141

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

396

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

65

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

111

2026.03.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
【web前端】Node.js快速入门
【web前端】Node.js快速入门

共16课时 | 2.1万人学习

swoole进程树解析
swoole进程树解析

共4课时 | 0.2万人学习

ThinkPHP6.x 微实战--十天技能课堂
ThinkPHP6.x 微实战--十天技能课堂

共26课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号