趋势网 > 资讯 > 正文
版权归原作者所有 侵权敬请通知移除
摘要:人们有时会遇到道德困境,从而不得不面对两难选择。在人工智能越来越发达的今天,机器也会遇到同样的问题。汽车是冰冷的没有感情的物体,可一旦掌握了自主权,便陷入是否真的达到人工智能,从人性化的角度解决问题。
19岁中专生拿了个世界冠军当生日礼物
网友:在这本科扫大街的年代,妹妹能以一个中专学历勇夺冠军,实在是优秀,背后付出了多少努力可想而知。
周雨彤发文回应近期舆论
网友:明星就是吃这碗饭的,接受吧。
朝鲜强调已对韩国军方发出最后警告
网友:我已经分不清哪次是最后一次了。
杨子半夜视频的女主疑似是李隽子
网友:这届网友是真有实力,除了结婚搭子找不到,啥都能找得到。
上海女子患红斑狼疮赴瑞士安乐死
网友:尊重死亡,尊重他人的选择。
男子股票大涨太亢奋确诊躁狂症
网友:这样的情况,让他再等两天,是不是就抑郁了,正好中和一下。

趋势网(微博微信)讯:据CNET报道,谷歌工程总监Ray Kurzweil最近在奇点大学(Singularity University)演讲时表示,关于无人驾驶汽车在面临道德困境时如何做选择,这个问题目前没有答案。

人们有时会遇到道德困境,从而不得不面对两难选择。在人工智能越来越发达的今天,机器也会遇到同样的问题。

最近,Uber在美国宾夕法尼亚州匹兹堡推出无人驾驶汽车,这是一个令人兴奋的消息。但是,如果无人驾驶汽车面临一种道德困境,它会如何选择,设计者是否已经为它们设计好了应对方式?

例如,假使无人驾驶汽车快要撞上另一辆汽车,那辆车里坐着三个人。它可以转弯闪开,但这样它就会撞上人行道上的三个孩子。

它会如何选择?

巧合的是,谷歌的工程总监Ray Kurzweil本周在奇点大学演讲时为这个问题提供了一个答案:我们不知道。

Ray Kurzweil解释说,“不可杀人”的戒律过于简单。他说,如果有人将要炸毁一幢建筑物或一个城市,那么除掉这个人就是符合道德的。

就无人驾驶汽车来说,他认为有必要进行“道德设计”。他说,艾萨克阿西莫夫(Isaac Asimov)的机器人三法则(Three Rules of Robotics )是一个很好的示范。

这三条法则是:

机器人不得伤害人类,也不得因为不作为而使人类受到伤害。

机器人必须服从人类的命令,除非这样做违背第一条法则。

在不违背第一条和第二条法则的情况下,机器人必须保护自己。

Ray Kurzweil不知道,不作为——你可以挽救某人的生命却没有这样做——是否等同于杀戮。他承认,在无人驾驶汽车的道德品性方面,他现在完全没有现成的答案。“我要考虑更长的时间。我还没有做过这种分析。”他说。

谷歌的首席工程师Andrew Chatham认为,当无人驾驶汽车面临两难选择时,“答案差不多总是‘踩刹车’。””他承认,这可能并不总是正确的答案。但他表示,如果连踩刹车都不是一种正确的应对,那就是面临极端情形了。

但是,这个世界上不是充满了极端情况吗?

,谷歌,Uber,机器人, 无人汽车陷入道德困境    谷歌尚未有对策

马斯克每天抽1名选民送100万美元  乌克兰称已同朝鲜军队发生交战  第一个从郑州夜骑开封的女生发声  

美国麻省理工学院的研究人员最近创建了一个名为道德机器(Moral Machine)的调查平台。此举意在调查人们希望无人驾驶汽车在面临道德困境时如何选择。

“研究人员不仅想知道人类会做出怎样的选择。他们也希望‘清楚地了解人类如何看待在道德困境下作出了某种选择的机器智能’。”

这似乎是相当明智的。

Uber没有回复记者的置评请求,因此目前还不清楚该公司是怎样处理无人驾驶汽车的“道德设计”问题的。

男子乘飞机2小时未起身致肺栓塞身亡
网友:飞机的经济舱太窄了,根本就没有活动空间。
美国大选前夕更多富人计划离开美国
网友:西方天堂美国也不安全。
外逃副市长涉案超31亿 查封千余房产
网友:我的个乖乖,书中自有黄金屋具象化了。
官方通报120司机与产科医生涉嫌贩婴
网友:看着更像父母自愿,不想要,让医生帮忙找个人家,给孩子留条活路。
张兰帮叶珂发声
网友:这么久,叶珂终于等来了她心软的神,就是也不是什么好人。
美国设计师因着装问题被劝离故宫
网友:你可以有你的自由,但我也有我的规矩。
私人影院肢体接触明码标价
上海迪士尼疑老太带孙插队被怒吼
女孩收200万分手费因敲诈勒索被判刑
4名杭州高中女生保送清华大学
阿富汗塔利班禁止女性在公共场合说话
14岁男孩电梯内捂嘴猥亵女童被拘
朝鲜强调已对韩国军方发出最后警告
第一个从郑州夜骑开封的女生发声
寻亲走红的郁豹豹已与家人决裂
引导失误致冠军变亚军痛失21万奖金
  感谢各大网址导航推荐本站: