精明的青椒 · 地下偶像sana动漫从哪看/sana白色巨猿 ...· 1 月前 · |
爱喝酒的四季豆 · 如何使用Python从MySQL数据库检索值 ...· 6 月前 · |
越狱的橙子 · 一耽女孩官网版网页入口下载-一耽女孩官网版网 ...· 9 月前 · |
求醉的枕头 · 行继续符 "_" ...· 1 年前 · |
粗眉毛的蚂蚁 · 孙一文一剑致胜 ...· 1 年前 · |
结论:不能,自动驾驶过程中,部分极端场景选择逻辑不能被标准化和编程化;对于道德上模糊的事件,人类必须重新获得控制权。
1967年 英国哲学家菲利帕·福特提出过《电车难题》的例子,来分析了道德导致的有意和无意的结果,去做和允许去做,支持还是拒绝之间的区别。而这也是未来自动驾驶必定会面临的伦理课题。
电车难题场景:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。但是还有一个问题,那个疯子在那另一条轨道上也绑了一个人。考虑以上状况,你应该拉拉杆吗?
两个角度做分析:
【功利主义】:选择拉杆,道德决策应根据“为最多的人提供最大的利益”的原则做出的。因此,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。
【道义主义】:选择不拉杆,生命权高于其他一切权力;生命权与生命权无法比较;一旦拉了拉杆,你就成为一个不道德行为的同谋——你要为另一条轨道上单独的一个人的死负部分责任。
这里引用德国自动驾驶伦理道德标准:
如果自动驾驶系统比人类司机造成更少的事故,那么自动驾驶系统将成为一种道德责任。
相比对动物或财产造成的伤害,系统必须最优先考虑人类安全。
如果事故不可避免,禁止任何基于年龄、性别、种族、身体特征或其它区别的歧视。
驾驶的责任方必须明确。
汽车必须安装储存驾驶记录的黑盒子。
对于是否将驾驶数据转发给第三方或给第三方使用,人类司机保留独有权。
对于道德上模糊的事件,人类必须重新获得控制权。
这本质上是一种抉择,生命的抉择不能交给系统。若完全交给系统,无视道德规则的指引,在法律中只是进行功利的价值比较,那么整个道德秩序可能崩溃,社会也会瓦解。
若完全交给系统,那系统本身可能沦为纯粹的工具。
顺道做个延伸,哲学上针对功利主义和道义主义之间的抉择事件简直不要太多:
《姚莉事件》
姚莉是某银行工作人员,一日歹徒来抢劫,保险柜中有30万元现金,抽屉里有2万元现金,姚莉和歹徒周旋,给了歹徒2万元,成功地用2万元财产保全了国家30万元财产。但后来姚莉被开除了,理由是为什么不用生命去保护国家的2万元财物。
《洞穴奇案》假象公案/《米丽雷特号事件》
“米丽雷特号”的轮船在暴风雨中沉没,4名船员,包括船长杜德利,大副史迪芬斯,船员布鲁克斯,杂役帕克,都被迫逃到救生艇上。八天没有进食之后,船长杜德利决定将已经气若悬丝的帕克杀死,三人靠帕克的血和肉存活下来。。
领取 专属20元代金券
Get大咖技术交流圈
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2023 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号: 粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287