其实,在20世纪初,没有谁会打赌,哪怕只赌一分钱,说一台机器能够在国际象棋比赛中击败世界上最好的选手。这本来似乎是一个不太好笑的玩笑,幼稚的梦想,甚至可以被写进儒勒·凡尔纳的科幻小说。可是……自从这台名为“深蓝”的电脑在国际象棋比赛中夺得了世界冠军,我们知道了这是可能的。现在,除此之外,您电脑上的任何应用程序或者低配置智能手机的程序都能够做同样的事情!还有更多的例子表明低级人工智能领域在过去几年取得了非常大的进步。IBM设计的计算机取了一个叫沃森的名字,在2011年高调地参加了著名电视竞技节目《危险边缘》——在美国风靡一时的节目,并打败了两个冠军。对一台机器来说,这是一个令人难以置信的挑战:找到对应于自然语言编写的答案的问题(问题是用英语描述的)。通过使用Hadoop的软件(大数据处理软件),沃森已经能够全速处理两亿页的文字,这让它得以战胜其竞争对手——人类。有必要说明,它不仅能正确地“理解”问题,而且可以在几秒钟内读完所有的文章,这对人类来说要花费几辈子的时间,对一个提出的问题,它可以提炼出更多合适的答案(想象一下这个挑战有多艰巨:找到主持人给的答案背后的问题)。它的表现简直令人叹为观止。尽管我们仍然相信,高级人工智能只是一个乌托邦,但低级人工智能目前也已经远远超过人类的智能,带来许多现实问题。就像我提到的一封公开信中所讲的一样,这封信是由埃隆·马斯克、史蒂芬·霍金和比尔·盖茨签署的请愿书,旨在反对制造和使用著名的“杀手机器人”军队。这份请愿书涉及世界上参与这项研究的上千位研究人员。
这三位对科学和新技术满怀无限激情的人提醒我们关注无人驾驶飞机和远程操控导弹的危险。它们,通过遥控,用人来操控一些所谓的“高智商”的杀手机器人,能够自行决定是否“按下按钮”来结束一个人的生命。在信中,三位科学家或者说企业家提出了赞成和反对这些机器人的论据。他们承认,机器人可以在战争中投入使用从而代替人类,避免不必要的损失。但他们也说,危险是巨大的,大于它给人类带来的益处:
机器人的制作成本低廉,不需要稀有材料,这和原子弹不同,这种武器将很快被普及。不久,我们就可以在黑市上发现它,恐怖分子可以轻而易举获得它,独裁者可以通过它来奴役本国人民,军阀统治者可以通过它来进行种族灭绝,等等。
这就是我们的三个同类发出的警告,值得一听。
首先,让我们来听一下比尔·盖茨先生的原话:“我是对超级智能的发展保持担忧的人之一。目前,那些在我们的位置替代我们劳动、并完成许多任务的机器并不是超级智能。如果我们能够很好地进行管理,像这样的发展会变得越来越好。然而几十年之后,智能会带来新的问题。我十分同意埃隆·马斯克的观点,但不明白为什么目前人们对这个问题并不担心。”
史蒂芬·霍金强调道:“成功地创造出人工智能是人类历史上伟大的进步。但,这极有可能是人类文明最后的进步。”
为什么是最后的呢?因为所有的一切都是根据达尔文的进化论选择而来的,智力也是,但在霍金的假设里,机器存在想要继续活下去的欲望,所以要消灭一切对它生命构成威胁的事物。既然存在这些智商超群的机器人,就像科幻电影里描绘的那样,能够在几秒钟之内读取百万页,知道我们所有的信息,知道只有我们人类有能力将他们的电源切断,因此自然而然,我们将会成为他们的头号敌人。一旦机器人控制了所有的信息服务器,也就是武器,它们将会变得有能力摧毁我们。
最后,我们来看看特斯拉公司CEO、绝顶聪明的埃隆·马斯克说了什么:“我认为我们应该非常小心谨慎。如果让我猜测什么最有可能对我们的生存造成威胁,我会说可能是人工智能。我越来越倾向于人工智能应该被监管这个观点,包括国家层面和国际层面上的,以确保我们没有在干蠢事。开发人工智能,相当于在召唤恶魔。”
马斯克言行合一,出资1000万美元给一个致力于人工智能领域安全性研究的基金,这告诉我们,制定人工智能的监管规范对人类自身的安全来说至关重要。

(敬请关注微信号:dzbyqzx)