0

0

人工智能发展何时突破枷锁?

WBOY

WBOY

发布时间:2023-04-08 18:51:04

|

1038人浏览过

|

来源于51CTO.COM

转载

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

人工智能发展何时突破枷锁?

近日,某品牌汽车在样车测试期间发生事故,造成了很大的人员财产损失,第一时间冲上了新闻头条。同时,被舆论关注的还有老生常谈的汽车自动驾驶问题。自动驾驶是否安全?是否应该开放自动驾驶?在自动驾驶的外壳下,人工智能能否拥有道德判断作为问题的核心也难下定论。

“电车难题”人工智能面临道德困境

美国MIT设计了一个名为道德机器(Moral Machine)的网站,网站设计汽车失控的各种情景让观众做出选择,通过收集300万用户的反馈,道德机器发现,人们更倾向于让自动驾驶车自毁以保障更多人的生命,却希望自己的车没有这个特征。这一结论与文化、习俗无关,是人类通常普遍的选择,与社会普遍认知相契合,人们希望通过牺牲少数人的生命换取更多人的生命。但这与法律是相违背的,因为人的生命本身并不可以进行比较和量化。

这是自动驾驶不可避免的道德问题。一方面,如果允许AI在失控中做出决策,根据权责一体的规定,也就意味着AI或其背后的自动驾驶公司应当对决策行为承担责任。另一方面,如果不允许AI做出决策,则不能称为自动驾驶——因为自动驾驶汽车的定义是不需要人为操作即能感测其环境及导航驾驶的汽车。

自动驾驶遇到的“电车难题”只是人工智能行业遭遇的困境的一个缩影。尽管随着科技的进步和大数据行业的发展,人工智能模型越发成熟,但是在涉及道德、意识等人性方面的问题时却陷入尴尬的处境:根据人工智能“奇点”论,人工智能终会在理性和感性方面超过人类,但对人工智能的安全问题,人类又历来有“弗兰肯斯坦情结”,一般人类在心理上无法接受与非生物的机器产生共情。

今年6月上旬,谷歌2021年推出的对话应用语言模型LaMDA被其负责人之一的工程师莱莫伊爆出“有意识”。他认为LaMDA模型是一个有着自我意识能够感知这个世界的“人”,拥有七八岁孩童的智力。莱莫伊说LaMDA模型不仅认为自己是一个人,还要争取自己作为一个人的权利并积极地为其进行辩护。事情爆出后,许多网友支持莱莫伊,认为人工智能的奇点已经到来,相信人工智能已经变得有意识和灵魂,可以像人一样进行独立思考。

价值判断人工智能的爆雷区

人工智能是否有道德,即人工智能是否应当有价值判断?

如果认为人工智能有道德,意味着人工智能可以摆脱人的意志支配,对事件或事物进行独立评价。这一点在技术层面并不难实现,通过大量的数据“饲养”,人工智能可以将事件或事物数字化,按照深度学习形成的一套“判断标准”进行衡量。上文中的LaMDA模型也是如此。但事实上,LaMDA模型只是一个应答机器,知名机器学习和神经网络专家Gary Marcus表示:“LaMDA只是在人类语料库里提取字眼,然后匹配你的问题。”从这一点分析,所谓的人工智能“道德”也只是对事件或事物的应答,并不能深刻理解何为道德评价以及道德评价的意义。

再比如,不同的人工智能模型面对相同的情景时有不同的处理方式。仍以自动驾驶为例,以同样的方式冲向同样的桩桶,结果却截然不同。有的直接冲撞,有的躲避。这能上升到道德高度吗?很显然不能,甚至这两种模型没有优劣之分,因为基于不同的理念和要求设计出的模型有特殊性,前者认为此种情况属于驾驶员操作范畴,无需介入;而后者认为应当介入。

再退一步讲,假设人工智能拥有像人一样的意识,可以独立思考,就意味着可以寄希望于它能解决道德问题吗?答案是否定的。简单地说,人类本身不能解决的道德问题不能指望在无“人性”概念的数字身上得到解决。

从这个角度分析,发展人工智能的价值判断并没有道德层面的问题,更重要的是分析为何要进行道德评价。道德评价的根本是为了得出一个结果并为后续行为进行指引。记者认为,在人工智能的归责上,应当将人工智能区分为决策系统和执行系统,并对相应的系统引入“负责人”制度。

意兔-AI漫画相机
意兔-AI漫画相机

照片变漫画手绘,做周边好物

下载

在决策角度,尽管从法律角度惩罚行为不惩罚思想,但只是针对自然人。而现行人工智能的“思想”是可以通过数据的方式表达出来的,故从决策层面来看,人工智能仍存在管控需要。人工智能的“思想”存在错误,究其原因是训练算法的数据存在问题,即人工智能学习了社会存在的问题并加以运用。如美国的电商品牌亚马逊在进行员工录取时运用人工智能算法对候选人的简历进行初步筛选,结果更加倾向于男性,因为工程师在对该算法进行训练时,用的是之前亚马逊已经被录用员工的简历进行训练的,而亚马逊男性员工偏多。结果就是这样的算法使得亚马逊的简历筛选算法更加倾向于男性,造成了算法的“性别歧视”。记者认为,如果是因为算法和训练数据的原因造成的法律结果,则结果应当对负责算法设计或训练的责任主体进行追责。

在行为角度,即便是人工智能在行为执行度上已经能媲美甚至超越人类,在法律层面,人工智能仍被视为物而并非权利能力的主体。这也就意味着现在的法律否认人工智能能独立承担法律责任,本质上是因为人工智能不能对其所实施的行为负责,设立“负责人”制度类似于法人组织的法定代表人制度,由具体的自然人承担由行为而产生的责任。而将“思维”和“行动”区别开,则可以在归责方面更加细化,在保障有效承担责任的同时不至于影响人工智能行业发展的积极性。在现行民事领域,人工智能产品侵权适用产品责任,强调对研发者、生产者和销售者的责任。

* * *

近年来,我国接连发布了《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件,明确提出八项原则,强调将伦理道德融入人工智能全生命周期,从原则性角度维护人工智能行业的健康发展。有关人士表示,国家科技伦理委员会人工智能分委会正在研究起草人工智能伦理高风险清单,以更好地推动人工智能科研活动的伦理监管工作。相信随着更多法律规范的出台,人工智能的应用道德问题一定能得到极大缓解。

小贴士

人工智能都有哪些梗?

电车难题:“电车难题(TrolleyProblem)”是伦理学领域最为知名的思想实验之一,最早是由哲学家菲利帕·福特(PhilippaFoot)于1967年发表的《堕胎问题和教条双重影响》论文中提出来的。大致内容是假设在一个电车轨道上绑了5个人,备用轨道上绑了1个人,有一辆失控的电车飞速驶来。而你身边正好有一个摇杆,你可以推动摇杆来让电车驶入备用轨道,杀死那1个人,救下5个人;你也可以什么都不做,杀死5个人,救下1个人。此类伦理道德困境问题被称为“电车难题”。

人工智能“奇点”论:最先将“奇点”引入人工智能领域的是美国未来学家雷·库兹韦尔。在他的《奇点临近》《人工智能的未来》两本书中,将二者结合,他用“奇点”作为隐喻,描述的是当人工智能的能力超越人类的某个时空阶段。而当人工智能跨越了这个“奇点”之后,一切我们习以为常的传统、认识、理念、常识将不复存在,技术的加速发展会导致一个“失控效应”,人工智能将超越人类智能的潜力和控制,迅速改变人类文明。

弗兰肯斯坦情结:源于小说家阿西莫夫,指人类惧怕机器的心理状态。弗兰肯斯坦是1818年玛丽·雪莱创作的一本叫做《弗兰肯斯坦——现代普罗米修斯的故事》的小说中的主人公,他制造出了一个类人生物,但他也因此被反噬。“弗兰肯斯坦”现被用来指代人类制造的怪物。在现在的文学、电影等作品中,“弗兰肯斯坦情结”常暗指人工智能征服人类并开始管理这个世界。记者 徐勇 实习生 杨成林

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
页面置换算法
页面置换算法

页面置换算法是操作系统中用来决定在内存中哪些页面应该被换出以便为新的页面提供空间的算法。本专题为大家提供页面置换算法的相关文章,大家可以免费体验。

500

2023.08.14

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

49

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

88

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

273

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

59

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

99

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

105

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

230

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

618

2026.03.04

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
光速学会docker容器
光速学会docker容器

共33课时 | 2.1万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号