趋势网 > 资讯 > 正文
版权归原作者所有 侵权敬请通知移除
摘要:人们有时会遇到道德困境,从而不得不面对两难选择。在人工智能越来越发达的今天,机器也会遇到同样的问题。汽车是冰冷的没有感情的物体,可一旦掌握了自主权,便陷入是否真的达到人工智能,从人性化的角度解决问题。
河南00后女生当职业扫墓人
网友:这份工作适合i人,上班一句话都不用说。
网友曝小米汽车车主驾驶中睡着
网友:虽然是智驾,但是驾驶技术方面还是不能跟人比,双手不要脱离方向盘,安全第一。
阿姨学车练科目二穿墙而出
网友:学好以后也是个潜在马路杀路。
重庆女孩去缅甸做珠宝直播震中遇难
网友:震中40℃高温炙烤,大型机械又无法进入,救援人员不仅要争分夺秒与死神赛跑,还要对抗恶劣环境,难度远超想象。
CT查出骨折急诊医生说没骨折
网友:其实肋骨骨折真的就是养。
王者荣耀补偿力度
网友:我最后那局赢了,战绩都给我整没了。

趋势网(微博微信)讯:据CNET报道,谷歌工程总监Ray Kurzweil最近在奇点大学(Singularity University)演讲时表示,关于无人驾驶汽车在面临道德困境时如何做选择,这个问题目前没有答案。

人们有时会遇到道德困境,从而不得不面对两难选择。在人工智能越来越发达的今天,机器也会遇到同样的问题。

最近,Uber在美国宾夕法尼亚州匹兹堡推出无人驾驶汽车,这是一个令人兴奋的消息。但是,如果无人驾驶汽车面临一种道德困境,它会如何选择,设计者是否已经为它们设计好了应对方式?

例如,假使无人驾驶汽车快要撞上另一辆汽车,那辆车里坐着三个人。它可以转弯闪开,但这样它就会撞上人行道上的三个孩子。

它会如何选择?

巧合的是,谷歌的工程总监Ray Kurzweil本周在奇点大学演讲时为这个问题提供了一个答案:我们不知道。

Ray Kurzweil解释说,“不可杀人”的戒律过于简单。他说,如果有人将要炸毁一幢建筑物或一个城市,那么除掉这个人就是符合道德的。

就无人驾驶汽车来说,他认为有必要进行“道德设计”。他说,艾萨克阿西莫夫(Isaac Asimov)的机器人三法则(Three Rules of Robotics )是一个很好的示范。

这三条法则是:

机器人不得伤害人类,也不得因为不作为而使人类受到伤害。

机器人必须服从人类的命令,除非这样做违背第一条法则。

在不违背第一条和第二条法则的情况下,机器人必须保护自己。

Ray Kurzweil不知道,不作为——你可以挽救某人的生命却没有这样做——是否等同于杀戮。他承认,在无人驾驶汽车的道德品性方面,他现在完全没有现成的答案。“我要考虑更长的时间。我还没有做过这种分析。”他说。

谷歌的首席工程师Andrew Chatham认为,当无人驾驶汽车面临两难选择时,“答案差不多总是‘踩刹车’。””他承认,这可能并不总是正确的答案。但他表示,如果连踩刹车都不是一种正确的应对,那就是面临极端情形了。

但是,这个世界上不是充满了极端情况吗?

,谷歌,Uber,机器人, 无人汽车陷入道德困境    谷歌尚未有对策

男子在山姆采购550万元商品遭冒领  特朗普回应市场大跌  山西一中学食堂420万食材费被贪占  

美国麻省理工学院的研究人员最近创建了一个名为道德机器(Moral Machine)的调查平台。此举意在调查人们希望无人驾驶汽车在面临道德困境时如何选择。

“研究人员不仅想知道人类会做出怎样的选择。他们也希望‘清楚地了解人类如何看待在道德困境下作出了某种选择的机器智能’。”

这似乎是相当明智的。

Uber没有回复记者的置评请求,因此目前还不清楚该公司是怎样处理无人驾驶汽车的“道德设计”问题的。趋势网

山姆客服称水果中吃出虫是正常情况
网友:虽说客服说的太直接,但确实是实话。
边牧在墓区偷吃供品胖成百斤
网友:不吃也是收走扔掉,吃了还可以避免浪费,挺好的
小米客服回应车门断电锁死质疑
网友:其实电车的电池本身,就是个不定时炸弹啊,一磕一碰都可能爆起来,重撞击更加不敢想象。
解放军说只要一声令下必将消灭台独
网友:可是这话已经喊了很多年了啊。
月薪4千搬运工瞒家人买454万保险
网友:这保险公司的员工有点丧尽天良利欲熏心啊。
宁德时代称小米SU7用的不是其电池
网友:拆解汽车供应商,好像并不能解决问题。
  感谢各大网址导航推荐本站: