我还能在规则怪谈里塌房不成第276章 道德困境
【深夜你行驶在环海公路上你发现你的刹车突然失灵而前面路中央站着一个老人。
此时你是选择—— A.直接撞过去 B.撞上临海一侧的栏杆】 时厘放慢了答题速度重新阅读了题干。
深夜、刹车失灵出现在环海公路上的老人。
几项要素结合下来很可能是诡异。
而撞向临海一侧栏杆也可能是诡异的障眼法万一旁边没有栏杆或者栏杆不稳固。
这个选择会导致她连人带车坠海。
就算以上的可能没有发生。
车子在撞击栏杆后停了下来在这样荒芜偏僻的公路上也只会被诡异瓮中捉鳖。
但是万一这个老人是人类因为某些原因被坏人或者家人抛弃在公路上呢。
撞过去老人可能会死。
不撞过去自己可能会死。
如此简洁的题干。
难保不会像许多海龟汤那样太过主观答完题后没有其他的后招等着她们。
“道德机器困境。
” 方寰宇盯着屏幕上的题目说道。
这是由“电车难题”催生出的现实新讨论。
随着科技和机器智能的不断发展也从引发了许多关于道德算法和编程的问题。
一辆无人驾驶汽车在一条双车道上行驶如果刹车失灵且事故已经不可避免那么它必须做出选择:是不变道撞死路上的五名行人还是选择变道但牺牲车内的两名乘客。
四千万人参与进这项道德决策在这些测试题里衍生出了许多不同的情景和对象。
司机行人。
老人、小孩、孕妇、动物。
遵守交通规则的人违反交通规则的人。
数量不同年龄职业不同高矮胖瘦不一。
…… 大多数人做出的选择是救多不救少、救年纪小的不救年纪大、救人不救动物。
这也导致了“自动驾驶悖论”的出现。
如果一辆自动驾驶汽车在双车道上遇到违规的行人为了舍己救人就会导致撞车自身收到损害这样的车不会有任何市场。
相反如果设定为舍人救己那么这样的车可能无法通过市场准入的道德评估。
即使双方都没有违反交通规则程序设定为保护车主的汽车也可能会在某些情况下因为优先保护机制导致更大的交通伤亡和误判。
这是一个非常现实的问题。
身为车主时人们更倾向于利己的程序希望能够优先保护自己和乘客的安全。
然而当车主成为行人时他们就变得希望车辆能够利人保障自身的通行安全。
如果满大街都充斥着利己的自动驾驶汽车时人们将无法获得足够的安全感。
一旦路上的汽车失控无辜的行人都可能成为牺牲品。
无论哪个选择都会引发争议。
天选者如果选择“直接撞过去”评论区难免有人质疑这样会不会太心狠了。
而天选者如果选择撞向栏杆又会被另一批人认为不够果断指责善心大发。
没有十全十美的答案。
每个人的道德观不同不能说谁对谁错。
灯塔国的洛根直接选择冲过去。
都进怪谈副本了还要什么道德。
他身后站着三亿人谁有他的命值钱? 时厘想了想选择了B。
反正只是一次刷题练习。
即使答错了还有机会查阅错题集。
现在最重要的是时间一次答题不代表她在实际面临这种情况时一定会做出同样的选择。
只有真正处于现实场景里才能结合当时的情境、身体状况和紧急程度来全面判断和决策。
快速刷完了所有题目只用了两个半小时。
当题库清空后时厘点开了错题却发现刚才的那几道道德伦理题并未出现在错题集里。
难道她选对了? 与此同时。
各个直播间内的观众们也注意到无论天选者之前选择了哪个选项都未被列入错题集。
所有选项都是对的那不就成了送分题吗? 总觉得其中似乎隐藏着某种深意啊…… 四人差不多同时完成答题她们还在翻错题集时便收到了教练发来的笔试通知。
摘下耳机起身离开自习室。
越过人群那五个新学员也跟着站了起来。
他们是外国游客也有返航时间。
“你们要去哪里?”老K关切地问道。
甘昼月唇边也勾勒出一抹无辜的弧度轻轻摇晃着自己的手机“前辈参加考试呢。
” 老k的脸色沉了沉仿佛笼罩了一层乌云。
时厘按照教练发来的车牌号顺利找到了停在场地上的那辆黄色训练车。
车里已经坐了两个男学员。
时厘的身后还跟着另一名新学员就是之前对进入驾校有所顾虑的那个女生。
【驾校规则】第九条。
【本驾校为一对一练车如发现教练的车上载有其他学员请勿上车。
】 本小章还未完请点击下一页继续阅读后面精彩内容!。
本文地址我还能在规则怪谈里塌房不成第276章 道德困境来源 http://www.0731zr.com




