作者丨马克斯·泰格马克(未来生命研究所总裁)

人工智能真的是伪命题吗(那都是陷害人工智能的误传)(1)

关于人工智能的未来以及它对人类意味着什么的讨论正在进行。

当下,关于AI技术有许多争议,甚至连顶尖专家都无法取得共识。例如:AI对就业市场未来的影响;类人级别的AI是否/何时会被开发;AI开发是否会导致智能爆炸;以及这是我们应该欢迎还是恐惧的事情。

但当下也存在着许多由误解或人们各说各话所引起的伪争论。为了让我们专注于讨论有意义的争议和问题,而不是分心在错误的信息上,首先让我们澄清一些最常见的误传。

人工智能真的是伪命题吗(那都是陷害人工智能的误传)(2)

另一方面, 人们之中也普遍流传着另一个极端的预测,那就是我们十分确信超人类AI不会在本世纪出现。研究人员对我们实现超人AI的时间进行了广泛的估计,但是我们绝对不能铁定,本世纪出现超人AI的概率为零,因为这种对科技充满质疑的预测在过去很多时候都是错的。

例如,伟大的核物理学家欧内斯特·卢瑟福(Ernest Rutherford)曾在1933年,在西拉德发明核链反应前不到24小时之内说,核能只是飘渺虚无的“月光”。皇家天文学家理查德·伍利也在1956年称行星际旅行不过是“一派胡言“。他们负面的想法显然并不正确。

对AI最为极端的预测是,超人类AI永远不会实现,因为它在物理上是不可能实现的。然而,物理学家们都知道,大脑本身是由夸克和电子排列起来的强大计算机,而世上并没有物理学的规律规定人类不可能建立更加智能的夸克团。

目前,已经有一些调查问卷询问过AI研究人员,在有50%的把握下,从现在起要多长时间能创造出类人AI。所有的调查都有相同的结论, 那就是世界上领先的专家都无法达成共识,所以我们就更没法知道到底什么时候才会出现超人类AI了。例如,在2015年波多黎各AI会议的AI调查中,平均(中值)答案是在2045年,但当中也有些研究人员猜测超人AI只可能在数百年或更长的时间后发生。

还有一个相关的传言就是对AI有所担忧的人认为类人AI在几年内就会诞生。事实上,大多数公开表示担心超人AI会带来隐忧的人,都预测超人AI至少需要几十年才会出现。但他们认为,只要我们不能100%确定超人AI不会在本世纪中发生,最聪明的做法就是乘现在便开始进行安全研究,以防范未来的风险。许多与人类AI相关的安全问题非常艰难,可能需要几十年才能解决。所以,与其等到一群过度操劳的程序员不小心启动程序前才做出对策,现在就开始针对这些安全问题进行研究是明智的。

误传的争议

另一个常见的误解认为,担忧人工智能的人和提倡人工智能安全研究的人是对AI知之甚少的反科技者。当标准AI教科书(《人工智能:一种现代方法》)的作者斯图尔特·罗素在波多黎各会谈中提到这一点时,他逗得观众哄堂大笑。另一个相关的误解是,有些人认为支持人工智能安全研究是极具争议性的。

事实上,人工智能安全研究要想得到理想的投资,只要让人们知道AI可能带来的安全风险是不可忽视的,而没有必要让他们相信风险是非常高的。这就跟为房屋投保是一样的道理:买保险并不是因为房屋极大的可能被烧毁,而是因为房屋被烧毁拥有不可忽略的概率。为了安全起见,投资AI安全研究是非常合理的。

或许是媒体的夸大使人工智能的安全问题看起来比实际上更具争议。毕竟,在文章中使用恐吓的语言,并利用超出语境的引言来宣扬即将来临的危机会比精细客观的报告引来更多的点击率。因此,若人们只是由媒体报道来了解彼此的立场, 他们可能会认为他们在立场上的分裂比事实上还要严重。

人工智能真的是伪命题吗(那都是陷害人工智能的误传)(3)

比如说,一个对科技持怀疑态度的读者只读了比尔·盖茨在英国小报中所叙述的立场,便可能会错误地认为盖茨认为超级智能即将来临。

同样地,参与“支持人工智能运动”的人或许在并不理解吴恩达博士(Andrew Ng)的准确立场前,就因为他“担忧火星人口过多”的发言而错误地认为他不在乎人工智能的安全。然而事实上,他其实是关心人工智能安全的。问题的关键在于,吴恩达对AI的时间线预期更长,因此他自然地倾向于优先考虑短期内而不是长期内AI所能带来的挑战。

关于超级AI风险的传言

“斯蒂芬·霍金警告说,机器人的兴起可能对人类带来灾难。”许多AI研究人员在看到这个标题时都感到不以为然。许多人甚至已经数不清他们看到了多少相似的文章。很多时候,这些文章会配上一个邪恶的机器人携带武器的图片,似乎意味着我们应该担心机器人会崛起并屠杀人类,因为他们已经变得有意识和/或邪恶。

然而,往另一个较为轻松的层面想,这样的文章实际上是相当有意思的,因为他们简洁地总结了AI研究人员不担心的情况。这种情况结合了关于三个概念的误解——意识,邪恶本质和机器人。

如果你沿着道路行驶,你拥有对颜色、声音等的主观体验。但是自驾车会有主观体验吗?自驾车会对任何东西有所感受吗?虽然这种意识的奥秘本身是有趣的,但它与AI的风险无关。

人工智能真的是伪命题吗(那都是陷害人工智能的误传)(4)

如果你被无人驾驶的车撞到,它是否拥有主观感觉对你来说一点都不重要。换句话说,影响我们人类的是超智能AI所做的事情,而不是它的主观感觉。

对机器变成邪恶的恐惧是另一个转移注意力的话题。人类真正该担心的不是AI的恶意,而是能力。

根据定义,超级智能AI非常善于实现其目标,无论这些目标是什么;所以我们需要确保其目标与我们的目标一致。人类通常不讨厌蚂蚁,但我们比他们更聪明, 所以如果我们想建一个水电站大坝而那里有一个蚁丘,蚂蚁就只能倒霉了。“支持AI运动”希望避免把人类放在和那些蚂蚁相同的处境上。

对机器意识的误解跟误以为机器不能拥有目标有关。显然,机器的目标在狭义上便是做出能履行它的任务的行为:比如说,热寻导弹的行为简单地解释就是遵循它击中标靶的任务。如果你受到和你目标不一致的机器的威胁,那么真正困扰你的正是它的目标,而不是机器本身是否有意识或是否有什么目的。如果一枚热寻导弹正追逐你,你很可能不会惊叫:“我不担心,因为机器本身不能有目标!”吧。

我同情罗德尼·布鲁克斯和其他被小报不公平地妖魔化的机器人先锋。一些记者似乎痴迷地对机器人穷追猛打,并在他们的文章将机器人刻画成邪恶的、拥有血红双眼的金属怪物。

人工智能真的是伪命题吗(那都是陷害人工智能的误传)(5)

事实上,“支持AI运动”主要关注的不是机器人,而是智能本身:具体来说,他们关心的是人工智能的目标与我们的目标不一致。这种不一致的超人类智能其实不需要拥有一副机器人的身躯,而只需通过互联网连接就能给我们带来麻烦——如超控金融市场,取代人类研究人员,操纵人类领导人,或开发我们甚至不能理解的武器。就算不可能建造出这样的机器人实体,一个超智慧和超富裕的人工智能却能很轻易地用金钱支付或操纵许多不知情的人听从它的指示。

对机器人的误解跟机器无法控制人类的想法有关。智慧产生控制力:人类之所以能够控制老虎,不是因为我们更强壮,而是因为我们更聪明。这也就意味着,如果我们放弃在地球上属于万物之灵的地位,那我们也可能失去控制力。

最后

与其把时间浪费在以上所诉的误传中,我们不如将精力专注在那些真实存在的,让专家无法达成一致的有意思的问题上。

比如说,你想要什么样的未来?

我们应该开发致命的自主武器吗?

您希望通过工作自动化实现什么?

你会给现在的孩子们什么职业建议?

你希望有一个新的职业替代旧时代职业的社会,还是一个每个人都可以享有休闲的生活和由机器生产出的财富的无业社会?

往后,你希望我们创造出超智能的生命,并传播到我们的宇宙中吗?

我们是否会控制智能机器还是由它们控制我们?

智能机器会取代我们,与我们共存还是与我们合并?

在人工智能的时代中,身为人类的意义是什么?

你希望人类拥有什么样的意义,而我们又如何导向那个未来呢?

欢迎大家在下方留言,说说你的看法吧!


原文来源丨the Future of Life

图片来源丨the Future of Life

编译校对丨冰块@智言

本文仅代表作者观点,不代表智言科技AI观点。

,