吉林一滑冰馆被曝坍塌 遭学生质问的10人间宿舍条件怎样 给爱说话学生戴小蜜蜂的老师离职
人们对于人工智能和机器人的兴趣越来越浓,而且未来它们会变得很重要。但是它们对我们意味着什么?The Conversation总结了绝大多数人会想问的问题,并邀请诸多专家进行了回答,以下为问题列表。
在电影或电视中看到的那种类人的人工智能有多大可能实现?
自动化正在取代许多工作,不久的将来,从银行人员到出租车司机都将被取代。是否该考虑制定法律去保护某些产业?
五到十年内人工智能智能将会走向何方?
我们应该担心军用和其它武装机器人吗?
在各个方面都完全超过人类的超级人工智能可以实现吗?
鉴于我们对自己的意识所知甚少,我们能够创造人工意识吗?
赛博格(技术上的或概念上的)与人工智能到底有何不同?
对于人工智能的长远未来和它对人类的益处,你持乐观态度还是悲观态度?
1、在电影或电视中看到的那种类人的人工智能有多大可能实现?
人工智能教授Toby Walsh:类人的人工智能将100%可以实现。我认为尽管人脑是已知宇宙中最复杂的系统,没有什么东西能达到大脑中数十亿的神经元和和数以万计节点的复杂程度,但是依旧存在我们未知的物理定律能够让我们复制或超越大脑的能力。
《计算机科学》的读者Kevin Korb:从 Issac Asimov到Steven Spielberg电影中很流行的人工智能都可以实现。但问题是:它什么时候能实现呢?包括我在内的许多人工智能研究员认为,没有任何证据表明这一时代会很快到来。这主要是因为人工智能进程非常缓慢。我发现,比小说中的人工智能更不合理的是机器人的情感道德生活。它们要么不切实际地没有内心情感,就像《星际迷航》(Star Trek)中冷酷的Data;要么不现实地和人类水平差不多,非常优秀,就像电影《她》中的人工智能Spike Jonze。感情、道德和智力这三者是相辅相成,它们彼此关联,但是小说作者却让它们独立存在。柏拉图笔下的苏格拉底也犯了同样的错误。
人工智能标准研究员 Gary Lea:人工智能不是不可能实现,但实际问题是:「到底多像人类才算人工智能?」答案可能会在应用测试中:机器人已经于2014年通过了图灵测试,但是还有咖啡测试(涉身性人工智能可以走进一个不熟悉的房子并磨一杯咖啡吗?)、大学学位测试和工作测试。如果人工智能系统能逐一通过上述所有测试,再加上物理学家可能想到的任何验证方法,那么它们就会跟我们很像了。也许终极的挑战会是:一个涉身性人工智能是否能像J.Average一样在我们中间生活五年,或者在它自己承认是人工智能之前,我们都察觉不到。
2、自动化正在取代许多工作,不久的将来,从银行人员到出租车司机都将被取代。是否该考虑制定法律去保护某些产业?
机器人学教授 Jonathan Roberts :牛津大学研究人员于2013年发表了一篇论文,现在仍被广泛引用,论文根据工作自动化可行性程度,对工作进行排序。他们发现,20年内,美国有近一半的工种将面临被自动化的风险。2014年广为流传的视频《Humans Need Not Apply 》也沿着这篇论文思路,指出很多工作都会被机器人或自动化系统所取代,未来,就业将成为人类的大问题。当然,现在还很难做出明确的判断,机器代替人工并不能单纯地根据技术可行性来判断,主要因素实际上是商业应用和社会心态以及特定市场中的大众行为。
澳大利亚莫纳什大学哲学系副教授Robert Sparrow:计算机和机器人技术的进步无疑会迅速导致许多工作被机器人取代,但是我认为与其立法来保护特定产业,不如做好以下两件事情。首先,要确保在很多工作被机器人取代时,人类能保持良好的生活水平,以及有机会追求更有意义的事情。毕竟,在乌托邦的思想中曾经认为:未来,机器来工作,而人则不必辛劳。如果我们认为机器取代人是件坏事,那其实我们只是认为普通人有收入、能进行让生活更有意义的活动,实际取决于雇佣他们的富裕阶层。相反,我们应该着眼于借助机器重新分配财富,在减少大众的劳动需要的同时无损于他们从事自己关心的事情并从中获取价值的机会。
其次,我们应该保护社会中的弱势群体不会因为引入机器人而受到比人类社会中更糟糕的待遇。从我母亲使用机器人护理的例子来看,我认为在老年人护理行业引入机器人护理是雪上加霜,(成本是减少了,但是老年人无法正确的抗议)让本来就差评不断的人工看护行业有机会变得更差了。同样(无法发出自己意见的)监狱和孤儿院(西方社会孩子是国家资源,一有点问题,国家即可把孩子从父母身边带走,找不到养父母的话,就交给孤儿院——译者)也很容易因为不遵循本人意愿而受机器人看护的苦。
澳大利亚新南威尔士大学(UNSW)的人工智能教授 Toby Walsh:一些大变化即将发生。如今美国收入最好、人数最多的工作是卡车司机,但在未来的30年时间里,大多数卡车将变为自动驾驶。如何应对这种变化不是像我这样的技术人员的问题,而是整个人类社会应该解决的问题。历史证明,单纯的保护主义并不奏效。我们需要世界每一个国家都参与进来找出解决办法。除此之外,我们还可以选择勇敢的适应这个新世界。我认为必须保证劳动力市场的教育水平,以此来适应技术创新所产生的新工种。当科技进步创造了新的工作机会,我们需要的是掌握了未来几十年的工作技能的劳动力。
我们需要确保全世界都从不断进步的技术革新中获益,而不仅仅是那些机器人拥有者才能获益。也许大家都可以缩短工作时间,分享自动化带来的经济利益?就像经济学家Thomas Piketty所说,这可能需要通过根本性改变社会税收和福利制度才能做到。
《计算机科学》读者,凯文·考伯:工业保护和限制计算机化是错误的社会发展道路。我认为科学技术的发展应该以解决人们实际问题为目的。这势必带来经济混乱,而一个充满爱心的社会将包容那些在社会进步中被淘汰的人。
但是,只要我们控制好寡头,我们就可以适应新技术的进步。同时如果我们能注重培养人们对工作的灵活适应性,我认为聪明的人类是可以应付智能化所带来的冲击的。
国防分析师 Jai Galliot :大家都倾向于让被智能化取代的人去寻找更有意义的工作,然而,这一想法有些片面。试想一下空军喷气式战斗机驾驶员,他们全身心投入,做了充分的身体和心理上的训练,准备随时保卫自己的国家和人民。对于现役军人来说,在战场上保卫国家才是对其最有价值的工作,所以对于那些被替代的军人来说,找到有意义的替代工作也不会给他们带来安慰。除了军队里的情况,我们还需要关注的是,澳大利亚青年基金会指出,如今澳大利亚年轻人正在接受培训的工作中有60%将会因为自动化而被迫转型。
可悲的是,一个机器人可以代替许多工人。因此,在不可避免的创新和知识经济的时代,发达经济体的未来取决于年轻人能否适应由自动化所带来的全球化或共享化的工作。
3、在五到十年之后人工智能将会去往何方?
Toby Walsh:人工智能将会成为我们连接所有设备的操作系统,像Siri 和 Cortana这样的应用将改变我们与外部世界连联系的方式。人工智能将会让我们与智能手机、汽车、冰箱、中央供暖系统和房门随时交互,我们将生活在一个永远在线的世界。
机器人学教授Jonathan Roberts:接下来的五到十年,我们将看到机器学习系统以机器人的形式与我们交互。机器人领域下一个需要克服的巨大技术障碍是如何赋予机器人视觉。
这是一个巨大的挑战,在过去的四五十年里,这问题困扰了数以千计的机器人研究员。机器人团体越来越觉得使用大数据的机器学习最终会解决部分问题,让机器人真正的看到。最近,四所大学在澳大利亚研究委员会资助的机器人卓越视觉中心(Centre of Excellence in Robotic Vision)组队,旨在攻克许多妨碍机器人视觉的难题。
4、我们应该担忧军用和其他武装机器人吗?
哲学教授 Rob Sparrow:人类最不需要的就是让人类当中许多最具才能的工程师和机器人学家去研发杀人机器。机器人武器极易引起冲突,它们将会使各国政府更轻易地发动战争,因为政府会这样想:他们可以发起不会导致任何伤亡的战斗。机器人武器还将增加偶然性战争的风险,因为军队可以在高危环境中采用无人系统,比如接近潜在敌人的领空或深海港口。
在这些情形中,机器人甚至可能在人类没有机会提出任何异议的情况下发动战争,全自动化机器人的使用会进一步威胁人类生存。正是因为这些原因,我才和几个海外的同事共同创立了「国际机器人武器控制委员会(International Committee for Robot Arms Control)」,这一组织又支持了「阻止机器人杀 手运动」。
Toby Walsh:「机器人杀 手」是继火药和核弹之后的下一场战争革命。如果我们现在开始行动,我们也许可以颁布适当的禁令,从而阻止一场研发越来越好的机器人杀 手的武器竞赛。
一项禁令不会消除这项技术。这项技术与我们运用在自动汽车上的技术相同。而自动汽车在澳大利亚每年将阻止1000多起死亡交通事故。但是一项禁令足以这项技术声名狼籍,这样武器公司就不能兜售该技术,也就不会研究越来越好的机器来杀人了、过去,这种方法已经在禁止很多其他武器类型上发挥过作用,如致盲激光。如果我们不实行适当的禁令,恐怖分子和流氓国家将会使用机器人杀 手对付我们。
我坚决反对那些声称「机器人杀 手人已经被纳入了现行人道主义法律当中」的观点。现在,我们不能正确地设计它们以避免造成过多额外损失。未来,当我们有力能这么做的时候,我们也不能阻止其被迫做违背伦理的行为。即使合法使用,它们也将会成为令人恐惧的武器。观看我的TEDx演讲,你可以了解更多关于这一话题的问题。
机器人伦理研究人员 Seam Welsh:我们应该担忧军用机器人。然而,我们不应该误以为没有能够管控武器型机器人的现行法律。没有哪部具体的法律能禁止使用钢琴线杀人。法律通常是简要地规定了严禁谋杀,我们不需要为了阻止谋杀而禁止使用钢琴线。同样,现行法律已经禁止在和平时期使用任何武器进行谋杀,在战争期间使用任何武器导致非法死亡。
因此,没有必要因为害怕它们可能被非法使用而禁止使用自动武器,这与禁止使用自动汽车是因为害怕它们被非法使用(如汽车炸弹)是一个道理。不加选择不合时宜地使用任何武器导致不必要损失已经违反了国际人道主义法律。
一些人主张自动武器应该被归为生化武器。然而,禁止使用生化武器的主要原因是由于它们固有的不加选择性(不能区分敌我、以及士兵和平民)并会导致不必要的损失(缓慢痛苦死亡)。它们没有人道主义特征。相反,没有迹象表明「杀 手机器人」(即使反对者的案例中也没有)将会不加选择或导致痛苦死亡。与人类操作的武器相比,机器人武器系统不断提高的精密度和准确性是它们得到支持的关键。
如果正确设计,与人工操作的武器相比,它们导致无辜人员额外伤亡的可能性更低。的确,由于机器人武器可以操控,因此它们更多的是用来捕获敌人而不是杀死敌人。自动武器确实有潜在的人道主义特征。
5、在各个方面都完全超过人类的超级人工智能可以实现吗?
机器学习与人工智能助理教授 David Dowe:我们能够看到很多曾经无法由机器完成的任务现在都有了进展,也能看到它们一个个的逐渐被实现。比如说,在国际象棋比赛中打败人类(1997年);赢得《Jeopardy!》知识问答游戏(2011年);现在在某些矿区已经有了相应的标准的无人驾驶汽车;自动翻译等等。
另外,目前智力测验仍是智力测定的方法,我最近也在看计算机在这些测验中的表现。
Rob Sparrow:有人工智能就会有超级人工智能,没有理由相信非人类实体就不能有智能。也没有理由认为人类最高的IQ值就代表着智能的上限。如果在不远的未来,人类创造的这种机器对人类有任何威胁,我们应该感到非常害怕。想想人类如何对待老鼠的吧。为什么那些智商比我们高很多倍的机器(就像我们的智商比老鼠高得多一样)要对我们更好呢?
6、假定我们对我们自己的意识一无所知,我们能期待有意识地创造出人工意识吗?
《计算机科学》(Computer Science)读者 Kevin Korb:作为一名实用主义信仰者,我相信人工意识有可能被创造出来。这并不意味着我们能期待它的实现,而是它确有可能。John Searle认为人工意识不可能实现,他的观点似乎混淆了功能实现性和计算实现性。也就是说,逻辑上不可能「计算」意识,但并不意味着一个嵌入式、功能性计算机不能有意识。
哲学教授 Rob Sparrow:部分工程师、计算机科学家和科幻作者认为我们正处于创造人工意识的边缘,只差临门一脚。他们通常会估算人脑神经元的数量,认为我们很快就能建造出一个有相等数量逻辑门的计算机,以此认定人工意识即将实现。
如果你去咨询一下那些从事「修复」思维的心理学家或精神病学家,你会得到一个非常不同的答案。毕竟,严重抑郁症的最先进疗法依然是电刺激大脑,这非常像是汽车不走了,而你通过给发动机顶上浇上汽油,以期能修好汽车,让它重新上路。我认为我们对意识的了解还不够多,也就不能设计出一个具有意识的东西。
7、赛博格和人工智能(技术上或概念上)的区别在哪里?
信息系统副教授 Katina Michael:赛博格是人机结合。从定义上来看,赛博格是指人利用技术的自我延伸,以提高自己的能力。随着技术能力的不断提升,我们发现能将科技运用于人体,制造假体或者加以强化。因此,如果我们选择了这种设计,科技就不再是我们的延伸,而是成为我们身体的一部分。
相比之下,人工智能则是从经验中学习并模拟人类智能进行决策能力的计算机系统。赛博格通常始于人类自身,可能会经历一个改造过程,而人工智能则主要以软件的形式根植于计算机系统自身。
一些研究人员认为,赛博格也能始于人形机器人,然后整合活体组织或其他器官。不管怎样,无论是给人安上机器还是给机器安上器官,当人工智能通过硅芯片或纳米技术植入肢体、重要器官或替代/增置的感官等形式形成的义体得以运用时,这个人或者这个机器就可以称之为赛博格。
这方面已经有控制论方面的早期试验。1998年Kevin Warwick 将他的初次试验命名为Cyborg 1.0,该实验通过外科手术将硅芯片应答器植入他的前臂。2002年在Cyborg 2.0项目中, Warwick又将一百个电极阵列植入左臂的中央神经纤维中。
最后我们必须极度小心,以防我们植入体内的人工智能吞没我们的意识,从而控制我们。
控制论已经在我们身边了。Shutterstock
8、你对人工智能的未来及其给人类带来的好处是乐观还是悲观?
人工智能教授Toby Walsh:我既乐观又悲观。人工智能是人类竭力实现的变革之一。它将改变我们的经济、社会乃至我们在这个世界的中心地位。如果善加利用,世界将变得更美好。我们将会更健康、富有和幸福。
当然,和任何其他技术一样,我们也可能走上歧途而非得到善终。不幸的是,人类有误入歧途而难以回头的历史。我们知道全球正在变暖,但我们似乎无法摆脱这条路。我们知道恐怖主义正在破坏世界,但是我们似乎无法阻止这一切。人工智能将给我们的社会带来深刻持久的挑战。比如说,彻底改变工作性质,科幻小说将迅速成为科学事实 。
哲学教授 Rob Sparrow:我对人工智能研究对人类的长期影响持悲观态度。我不想否认人工智能可带来很多好处,特别是在支持人类做出更好的决策,实现我们目前能力范围内难以实现的科学目标方面。通过制造实现大脑功能的机器来研究大脑的工作原理本身是个有趣而有价值的项目。
然而也存在这样的危险:人工智能研究人员最后制造出来的系统将主要被用于使富者愈富,强者愈强。
我认为还存在如下风险:人工智能的前景将使得人类自欺欺人地认为我们无需对气候变化采取任何措施。我们已经知道如何行动,但缺乏足够的政治意愿去这么做,人工智能将使得人们日益忽视这一事实。
最后,尽管我不认为现在有足够的证据证明这会发生,但是如果工程师最终成功制造出比我们聪明的「真正的」人工智能,这可能会带来种族灭绝的危险。
机器人学教授 Jonathan Roberts:我看好人工智能发展对人类的长期影响。我认为人工智能会从根本上改变人类,因此,如果你不喜欢变化,你可能不会喜欢未来。
我认为,人工智能将颠覆医疗,尤其是诊断,将使个人医疗定制成为可能。人工智能医生和机器人医生将第一时间共享彼此的知识,从而创造出一个拥有全世界医疗数据的超级机器人医生。
我乐观还因为人类已经意识到技术可能会带来重大负 面影响,我们最终能处理好。事情在人类的掌控中,人类最终将自然而然地尝试和使用新技术让世界变得更好。
《计算机科学》读者Kevin Korb:我对人类中期未来感到悲观。我认为气候变化和随之而来的混乱战争等将给科技带来极大的破坏,为此,人工智能将止步不前。如果没有发生上述情况,那我就认为科技将继续发展,从长期来看,我们会实现人工智能。在这一过程中,人工智能研究将派生出对经济和社会的益处,因此我认为只要人工智能技术还在,其重要性就还在。
人工智能标准研究人员Gary Lea:我认为人工智能的未来是大杂烩,有好有坏。如果科学家和工程师在进行研究、设计并做出决定的时候能明智地考虑安全和社会福利(假设有适当的监管框架作为支撑),这样就没事。
所以,总的来说我对这方面谨慎乐观,但对人类而言还存在很多其他长期存在的风险。
其实这种高度的铁栏杆对虎是无效的,它如果真的很想吃,纵身一跃就进来了。