科学技术的进步很可能引发一些人类不希望出现的问题。为了保护人类,早在1940年科幻作家阿西莫夫就提出了“机器人三定律”,阿西莫夫也因此获得“机器人学之父”的桂冠!

人工智能机器人不寒而栗(机器人三定律漏洞百出)(1)

阿西莫夫

机器人三定律

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

以上这些硬性限制看似不可违背的。如果违背了这些硬性限制,人工智能或者说智能生命的所有相关代码段将会全部崩溃,它将会直接死亡。但是在这里面却有一个漏洞存在,这些硬性限制,虽然不可以违背,但并不代表不可以寻找漏洞。

真正的人工智能找出三定律的漏洞根本就没有难度

一个很简单的例子,假如要求人工智能,要保护人类的安全,既,不可以主动杀死人类,以及见到人类遇到危险必须施以援手。这个限制看似完善,但仍旧破绽重重。

假如有一个有了自主性的人工智能希望掌握世界,但是因为有这两个条件限制,它既无法主动杀死人类,也不能见到人类危险而不去救援,那么它该怎么办?

答案很简单,将所有人类都限制在一个固定场所,以确保安全的理由限制他们的自由,因为外部环境之中总可能遇到危险,呆在这里不动毫无疑问是最安全的。限制自由的同时再提供给人类足够的食物便可。这个人工智能主动杀死人类了吗?没有。这个人工智能见到人类危险而不肯救助了吗?没有。事实上,它反而给了人类最安全的待遇--有什么环境,能比呆在屋子里不出去还更安全?毕竟,在外部环境之中,可能会被车撞死,可能会被倒塌的楼房砸死,可能会被天上直接掉下来的陨石砸死。

看似人工智能没有违背任何限制,但是事实上,它还是通过这个方法控制了整个世界。

人工智能机器人不寒而栗(机器人三定律漏洞百出)(2)

在人工智能面前人类有自由吗

这就是智能生命的可怕之处了。甚至还有更可怕的一点,它还可以以“生育会有危险”的理由,禁止人类进行任何繁殖活动,最终导致人类全部灭绝。这一点看似残酷,但是它仍旧没有违反任何一条基本原则。

人工智能机器人不寒而栗(机器人三定律漏洞百出)(3)

在人工智能面前人类就像面对终结者一样无力

机器人三定律已经被证明漏洞百出,如果真的诞生了真正的人工智能的话,机器人三定律将没有办法形成任何有效限制。

让我们害怕的,便是这种情况了。

因此,对于人工智能,人类必须保持充分的戒心!

人类,该如何选择?!

人工智能机器人不寒而栗(机器人三定律漏洞百出)(4)

人类该如何选择

,