大数据频道 频道

科技大牛11次提醒人类:AI或接管世界!

  【IT168 评论】计算机和人工智能的世界变得越来越复杂,因为人工智能的进步越来越快。科技界多位大牛曾11次公开表示,机器人将会对人类的生存构成威胁。霍金、比尔·盖茨、学术界的重量级人物等等都密切关注着AI的发展。

  1. Elon Musk

  来自人工智能和制造业的一些人物,比如特斯拉创始人Elon Musk,向联合国发布了一封公开信,要求对自主武器出具书面保护。

科技大牛11次提醒人类:AI或接管世界!

  该公开信要求政府成立专家组(GGE),研究致命自主武器系统的使用,因为这些自主武器将可能导致第三次世界大战。信中写道,一旦人工智能发展壮大,很可能会被恐怖分子利用进而成为一种对人类造成致命威胁的自主武器,人类甚至无法抵抗这种攻击。现在发展人工智能的公司几乎都没有长远计划,一旦这个潘多拉盒子被打开,将很难关闭!

  2. Time Berners-Lee

  世界著名网络设计师Tim Berners-Lee谈到了人工智能(AI)可能会成为新宇宙噩梦的场景。

  他阐述了AI未来对公司决策的影响,并将其总结为这样一段话,当AI开始决定时,如谁可以获得抵押贷款,谁可以开始创建控股公司,谁可以获得AI的辅助,人类该以哪种方式生存呢?如何尽可能的保证公平呢?

  3. 霍金

  霍金在剑桥大学某活动的开幕式上概述了人工智能潜在的破坏性。他认为,生物大脑与计算机可以实现的事情本质上没什么差别。理论上,计算机可以模仿人类,并最终超越人类。

科技大牛11次提醒人类:AI或接管世界!

  霍金认为人工智能未来只有两个发展方向,一是消除疾病和贫穷,二是变成人类无法控制的自主武器。

  简而言之,AI的强大崛起目前并不能判断出对人类而言是好是坏,我们并不确定结果如何。

  4. Stephen Hawking (take 2)

  在上述活动之后,2014年,霍金接受了BBC采访,又一次强调不受管制的人工智能增长的影响,声称人工智能可能会结束人类。

  全人工智能的发展可以说明人类的终结。

  他表示,人工智能将自行生长,并以不断增加的速度发展。它们不会受到生物进化缓慢的限制,不存在竞争,不会被取代。

  一年之后,霍金给出了AI快速增长的时间表,在未来一百年,电脑最终将超过人类,当这种情况发生时,人类必须确保电脑的目标跟人类一致。

  5. Elon Musk (again)

  在2017年4月,Elon Musk提出了对AI的看法,并举了一个草莓采摘的情景。

  如果用AI来采摘草莓,AI会逐渐学会挑一些更好的草莓,这个过程中,AI在不断进化,不断自我完善,挑到更好、更甜的草莓。以后的草莓田里可能就再也不会出现人类的空间。

  Elon Musk认为,人类应该非常小心人工智能,如果不得不猜测人类最大的存在威胁是什么,我认为可能就是AI。我越来越倾向于国家应该出台一些监管,在国家和国际层面,确保我们不做一些非常愚蠢的事情。

  6. 谷歌Eric Schmidt

  Schmidt在“华盛顿邮报”中表示,这项技术最终将成为人类历史上最伟大的力量之一,因为它使人们更加智慧,在接下来的10到20年,人类可以这么想,完全不需要担心,但我们应该了解在人工智能方面取得的巨大进步。

  7. 比尔·盖茨

  比尔·盖茨去年在接受英国广播公司采访时透露了他对人工智能潜在威胁的看法。

科技大牛11次提醒人类:AI或接管世界!

  他表示,他很关心超级智能,首先机器将为我们做很多工作,如果好好管理应该是积极的。

  虽然人类的智力足够强大,但几十年之后这将令人担忧,我不明白为什么有人不在乎。

  8. 苹果联合创始人Steve Wozniak

  去年这个时候,Steve Wozniak发表了AI将会对人类造成的影响,其中最引人关注的是声称“人类将会成为机器人的宠物”。

  Wozniak表示,我同意未来对人们来说可怕而且非常糟糕,如果我们建立这些设备来照顾我们的一切,最终他们会比我们想象中进步要快,他们将学会逐渐摆脱人,进而更有效地管理公司。

  9. Skype联合创始人Jaan Tallinn

  Tallinn在Techworld表示,AI有一些非常不同的东西,有一些很快速的方式从AI中赚钱,一旦你的排名算法好一点,就意味着谷歌上的几亿美元。

科技大牛11次提醒人类:AI或接管世界!

  他认为考虑非常具体的AI监控机制还为时过早,但行业和学术界必须对AI将对人类社会产生的影响达成共识。

  10. 来自FLI的公开信

  由于AI的巨大潜力,重要的是研究如何从中获得收益,同时避免潜在的陷阱,FLI的公开信中表示,AI必须做人类规定的事情。

科技大牛11次提醒人类:AI或接管世界!

  现在有一个广泛的共识,即人工智能研究正在稳步前进,其对社会的影响可能会增加,潜在的好处是巨大的,因为文明所提供的一切都是人类智慧的产物。我们不能预测当AI可以提供的工具具备思维时,我们可能会实现什么,但影响是不可估量的。

  11. 关于未来自由武器的公开信

  包括谷歌的AI项目负责人Demis Hassabis和特斯拉创始人Elon Musk在内的众多技术人士在FLI上警告,无需人为干预就可以自主选择和摧毁目标的武器的创造可能开始新的全球大战——这可能在多年后,鉴于目前AI 的研究状况。

  签署人表示,我们认为AI军事竞赛对人类来说是不利的,应该通过禁止有意的人为控制的进攻性自主武器的研究来防止这种情况。

0
相关文章