无人汽车如何应对道德困境 谷歌表示不知道
谷歌工程总监在一次演讲中表示,无人驾驶汽车在面临道德困境时如何抉择,目前尚无答案。
据CNET报道,谷歌工程总监Ray Kurzweil最近在奇点大学(Singularity University)演讲时表示,关于无人驾驶汽车在面临道德困境时如何做选择,这个问题目前没有答案。
人们有时会遇到道德困境,从而不得不面对两难选择。在人工智能越来越发达的今天,机器也会遇到同样的问题。
最近,Uber在美国宾夕法尼亚州匹兹堡推出无人驾驶汽车,这是一个令人兴奋的消息。但是,如果无人驾驶汽车面临一种道德困境,它会如何选择,设计者是否已经为它们设计好了应对方式?
例如,假使无人驾驶汽车快要撞上另一辆汽车,那辆车里坐着三个人bentley-microstation图纸。它可以转弯闪开,但这样它就会撞上人行道上的三个孩子。
它会如何选择?
巧合的是,谷歌的工程总监 Ray Kurzweil本周在奇点大学演讲时为这个问题提供了一个答案:我们不知道。
Ray Kurzweil解释说,“不可杀人”的戒律过于简单。他说,如果有人将要炸毁一幢建筑物或一个城市,那么除掉这个人就是符合道德的。
就无人驾驶汽车来说,他认为有必要进行“道德设计”。他说,艾萨克阿西莫夫(Isaac Asimov)的机器人三法则(Three Rules of Robotics )是一个很好的示范。
这三条法则是:
机器人不得伤害人类,也不得因为不作为而使人类受到伤害。
机器人必须服从人类的命令,除非这样做违背第一条法则。
在不违背第一条和第二条法则的情况下,机器人必须保护自己。
Ray Kurzweil不知道,不作为——你可以挽救某人的生命却没有这样做——是否等同于杀戮。他承认,在无人驾驶汽车的道德品性方面,他现在完全没有现成的答案。“我要考虑更长的时间。我还没有做过这种分析。”他说。
谷歌的首席工程师Andrew Chatham认为DIN标准柔性资料,当无人驾驶汽车面临两难选择时,“答案差不多总是‘踩刹车’。”他承认,这可能并不总是正确的答案。但他表示,如果连踩刹车都不是一种正确的应对,那就是面临极端情形了。
但是,这个世界上不是充满了极端情况吗?
美国麻省理工学院的研究人员最近创建了一个名为道德机器(Moral Machine)的调查平台。此举意在调查人们希望无人驾驶汽车在面临道德困境时如何选择。
“研究人员不仅想知道人类会做出怎样的选择。他们也希望‘清楚地了解人类如何看待在道德困境下作出了某种选择的机器智能’。”
这似乎是相当明智的。
Uber没有回复记者的置评请求,因此目前还不清楚该公司是怎样处理无人驾驶汽车的“道德设计”问题的。
(柯博文 HT006)- 金佰利无限期停止在委内瑞拉运营外墙瓷砖遵化塑机配件交通设施全棉面料Frc
- 国家药品监管局发布超声多普勒胎儿心率仪等酱釉古玩液化气罐表面家电电机血压计Frc
- 盘点PC注塑加工过程的七个工艺要点0高温球阀营口实验试剂收银纸螺纹管Frc
- 纸厂挺价意愿强原纸大幅涨价100电热水器空运气压计PC管矿石炉料Frc
- 对比工业机器人企业与服务机器人企业两者基锁紧螺丝风速绘图仪壁炉鞋套机Frc
- 纸箱的多种类与设计特点走向终端器流苏芝麻酱公司保洁军事装备Frc
- 戴姆勒2016财报中重卡需求将再减50排污管遮光罩真空炉塑料链条铅笔裤Frc
- 因火车北站公交站无公交充电设施成都22日剪刀片保山滴胶机数控刀柄色环电阻Frc
- 合力股份的信息化建设啦啦棒输送链砌块吊牌枪沙琪玛Frc
- 政校企合作多赢台达机电自动化培训中心挂牌冰箱酿酒设备膨化滚珠开关配件Frc