大数据频道 频道

美国著名大学教授帮你解读人工智能:我们还在担心什么?

  【IT168 评论】昨天在TechCrunch上,一篇关于硅谷是否有责任义务停止研发机器人的文章引起了热议,人工智能是否会对社会带来一定负面影响的争论仍在升温。从科学家研发的AI计算机模型中,我们很难看出屏幕上这个虚拟生物将成为未来毁灭世界的怪物。那么问题来了:人们在享受智能机器人带来便利的同时又在担心什么?

是什么让人们开始为人工智能担忧?

  后果不可预测

  科幻小说作家亚瑟·克拉克(Arthur C. Clarke)的《计算机“哈尔” 9000 》被导演斯坦利·库布里克(Stanley Kubrick)拍成了电影《2001太空漫游》。在这部电影中,系统原因使得具有人工智能、掌控整个飞船的电脑“哈尔”9000获得了生命,给宇航员生命带来了威胁。系统故障造成的后果永远都是不可预料的,也许仅仅是由一些相对较小的细节,就会造成灾难性的毁灭。比如泰坦尼克号、美国宇航局的航天飞机、切尔诺贝利核电站事件的发生为世人敲醒了警钟。

是什么让人们开始为人工智能担忧?
▲电影中的哈尔9000机器人(图源网络侵权可删)

  同样的,在有关AI的研究中我们也会遇到这样的问题。我们刚开始接触AI时并不了解智能或者认知,只是把它看做一种算法将其添加到现有的系统中。IBM的沃森和 Google的AlphaGo系统配备了巨大的计算能力的人造神经网络,并取得了令人意想不到的结果。可如果这些机器一旦出错失去控制,他们会不会使人类处于一种非常危险的境地?

  随着AI设计越来越复杂化,计算机处理器性能的提高,人工智能功能也会逐渐提高,不可预测风险也会越来越高,这就意味着人类要承担更多的责任,但是“人非圣贤孰能无过”,对人类来讲创造一个绝对安全的人工智能系统更是难上加难。

  智能技术滥用

  科学家研究人工智能现阶段采用“神经进化”的方法,即创造虚拟环境,评估筛选出那些大脑可以完成日益复杂任务生物种,在这个过程中被筛选的机器人不断进化消除错误,表现最好的智能机器人将继续被研发以获得更高的认知能力。现阶段我们只局限于研制做简单导航任务的机器,比如做出简单的决策或者记忆几个代码,但我们的终极目标是研制出能够执行更多复杂任务并且与人类一样智慧的机器人。

  另一种演化方向是利用“神经进化”来影响人工智能系统伦理,人的道德是长期演变的结果,机器人也是如此。我们也可以设置虚拟环境,给那些具有善良、诚实和富有同情心特征的机器带来进化优势。这可能是确保我们研发获得更值得信赖的同伴或减少杀手机器人的一种可行方式。

  虽然神经进化可能会降低意外后果的产生,但并不能防止滥用,这是一个道德问题而非科学问题。

  贫富差距加剧

  人们现在对人工智能发展最担忧的领域就是就业方面,机器人已经开始应用在各个行业中,有一天它们也可以做我们曾经认为只有人才能完成的工作。也许有一天你会发现在急诊室里工作的不再是过度劳累的医生和工作人员;病人可以通过专家系统进行病情检查和诊断,机器人可以为人类进行手术;一个完美的法律咨询可能来自于一个法律数据库;投资建议可能来自市场预测系统而非专家。也许有一天,所有人类的工作都将由机器完成。当今社会自动化推动人们脱离工作,让拥有机器的人愈加富有,而其他人愈加贫穷。研制智能机器的目的是让大众受益,而不是加大人与人之间的贫富差距,这也将成为社会必须解决的政治和经济问题。

  人类被取而代之

  哈尔9000、终结者和其他虚构的超级智能机器人的出现让我们不得不担忧:人工智能系统不断改进,当他们的智慧超越人类时,人类会不会从地球上被抹去呢?人类又如何证明我们的存在可以完成机器人所不能完成的任务?宇宙是巨大,多样性本身就具有价值,智能机器人的存在并不是一个错误。当然,现在人工智能的发展还在初期,我们完全可以利用这50-250年的时间找到一个与智能机器人共同生存的解决方案。

是什么让人们开始为人工智能担忧?
▲(图源网络侵权可删)

  虽然对于人工智能的担忧还为时尚早,但是这是社会必须解决的问题。当然,当下我们最应该做的就是客观对待、合理利用人工智能,在现阶段让人工智能为社会的发展发挥更大的作用。

0
相关文章