正视人工智能的影响和后果

特德-格罗斯 37 分钟阅读

艾森斯坦定理(弗兰肯斯坦假说)(1)

图片来自Unsplash

序言

作为人工智能领域的未来学家,我的工作通常发表在学术期刊上,"弗兰肯斯泰因假设 "也是以学术方式写的。对于那些希望了解人工智能发展的整体背景以及在不久的将来人类将面临的一些伦理/道德困境的人来说,我确实希望这篇文章能作为一个信息丰富的介绍。

人工智能(AI)已经渗透到社会的各个领域。在人工智能中创建正确的构造和算法已成为 "圣杯",指导我们的决策并迅速超越我们生活的各个方面。

我们如何定义'思想'?'在什么时候推定为'智能'?我们什么时候认为某物是'有意识的'?'有可能获得意识吗?

人工智能 "一词的悖论似乎很荒谬。一个无可争议的'智能'分类并不存在。思考-思维 "同样也没有一个普遍接受的定义。那么,在没有明确描述这些术语的情况下,我们该如何理解人工智能的含义?我们何时何地应用我们的技术能力来实现人工智能?

随着人工智能潜力的增长,"意识 "成为一个关键的称呼。如何定义一个实体是否有意识已成为最重要的问题。我们正在迅速达到一个地步,社会将被迫决定何时何地思考、智能和可能的意识是非人类物体的基本组成部分。

几千年来,哲学家们一直试图定义 "存在 "和 "存在 "的本体论问题,这与 "思想"、"智能 "和 "意识 "有着内在的联系。'然而,'思想-智能-意识'的窘境不仅是本体论的构成,也是人工智能进展的核心。

"弗兰肯斯坦假说。面对人工智能的影响和后果》探讨了人工智能带来的两难问题。人工智能是如何发展的?在一个我们无法再控制人工智能指数增长的时代,"人工智能 "一词意味着什么?这篇文章研究了这些基本问题,对人工智能的发展进行了分析,导致人类最终必须承认并应对在背景中隐约可见的潜在怪物/因素。

智力、思维和意识

"我建议考虑这样一个问题:'机器可以思考吗?’”

阿兰-图灵在曼彻斯特大学工作时发表的论文《计算机械与智能》中的这一开场白,正式开始了对实现人工智能(AI)的探索,但从未使用过 "人工智能 "一词。'尽管图灵立即重构了他的论点,但由于不可能对 "机器 "和 "思维 "这两个词进行定义,这个问题仍然具有强大的效力。我们仍然在为定义两个词而挣扎。'智能'和'思想'。'它们是什么意思?什么真正定义了智能?思考的主要分类是什么?这三个字的问题 "机器能思考吗?"(重新定义)永远改变了技术进步的命运。

正如许多伟大的天才飞跃一样,图灵思想过程的一个推动力是由于一个世纪前Ada Lovelace女士提出的一个假设。Ada女士被认为是计算机编程的最初先驱,因为她被认为创造了世界上第一个计算机算法。

Ada女士当时正在研究 "分析引擎",这是她的导师查尔斯-巴贝奇提出的一种理论机器,它能够解出方程,精确计算出伯努利数的序列。她在关于拟议中的机器的笔记中写道。

分析引擎并不自负于创造任何东西。它可以做任何我们知道如何命令它去做的事情。它可以遵循分析;但它没有能力预见任何分析关系或真理。

图灵相信这个说法,他称之为 "Lady Lovelace的反对意见"是错误的,并着手证明这一点。

在这一点上,忽视 "真相比小说更奇怪 "这一陈词滥调是不对的。"Ada女士的父亲是拜伦勋爵,她一生都与他疏远。在1816年一个多雨的夏天,拜伦勋爵与玛丽-雪莱在日内瓦度过了夏天。由于雨下个不停,拜伦勋爵和玛丽-雪莱开始讲鬼魂和吸血鬼的故事,因此,基于天气的命运突变,小说《弗兰肯斯坦》首次被构思出来。几年后,拜伦勋爵的女儿在她关于 "分析引擎 "的笔记中为艾伦-图灵提供了部分原始动力。"图灵在技术领域打开的潘多拉盒子,以科学怪人的真实面目重新困扰着我们。它使人们思考巧合的本质、命运、因果报应、上帝或我们选择相信或忽视的任何途径。

在图灵提出他的基本问题五年后,即1955年,"达特茅斯人工智能夏季研究项目的建议"被提交。不到一年后,即1956年,第一次实际的人工智能会议在达特茅斯学院开始。人工智能 "一词归功于该提案的原作者之一约翰-麦卡锡。

图灵的问题所深刻改变的伦理、哲学、神学、道德、心理学、科学和理论构架不应该被低估。人工智能已经到来,人类别无选择,只能与之打交道。技术和创新不会保持静止状态。

70多年后,人们会发现关于定义 "思想 "和 "智能 "的争论仍在全力进行--尽管 "人工智能 "一词--现在已成为我们自然词汇的一部分。人工智能是任何技术讨论中获得最多关注的热门词汇。它被许多人认为是 "圣杯",涵盖了从机器人到决策到创造自我进化的算法等领域,这意味着智能思维的自我进化。(对其中一些主题的极好总结可以在艾米-韦伯的 "The Big Nine: How the Tech Titans and Their Thinking Machines Could Warp Humanity "中找到。”)

"Cogito Ergo Sum" - "我思故我在"

在1637年,哲学家勒内-笛卡尔在其《方法论》和1644年的《哲学原理》中,提出了他现在著名的哲学格言。"Cogito, Ergo Sum"--"我思故我在"(1647年译成法语--"Je pense, donc je suis"),这句话在伦理学家和哲学家中引起了一致、辩论、异议和惊愕。笛卡尔的声明很简单地意味着--如果一个人思考,那么他就存在。然而,"存在 "意味着什么?此外,如果我们不得不考虑笛卡尔定义为思考的存在困境,那么对我们对生命结构的理解将产生什么影响?

'思想'(或'思维')是否意味着智力?此外,如果是这样,思考和智能是否推断出 "意识"?在人工智能的时代,我们不能对这些问题不屑一顾,也不能忽视它们的影响。关于这个问题,已经出版了大量的书籍、期刊和思想,但仍然没有共识。只要简单地看一下维基百科,就会使问题进一步复杂化。

尽管思考是一种对人类具有存在价值的活动,但对于如何充分定义或理解它,仍然没有共识。

由于思想是许多人类行动和互动的基础,了解其物理和形而上学的起源及其影响是许多学术学科的长期目标,包括哲学、语言学、心理学、神经科学、人工智能、生物学、社会学和认知科学。

思考使人类能够理解、解释、代表或模拟他们所经历的世界,并对该世界做出预测。因此,当生物体制定计划或以其他方式试图完成这些目标时,它对有需求、目标和欲望的生物体是有帮助的。

任何参与人工智能及其后果的人都应该清楚,我们不仅处于技术的最前沿,而且它触及所有科学和哲学的每一种思维模式、反应和回应,这将引起深刻的裂痕和对众多先入为主的观念的重新评估。

什么是所谓的思考?

研究中最奇特、最令人头疼的领域之一,就是试图为 "思想 "或 "思维 "下一个具体的定义。'上述引自维基百科的声明将这一困境置于其适当的背景中。"尽管思考是一种对人类具有存在价值的活动,但对于如何充分定义或理解它仍然没有共识。”

剑桥词典》将 "思想 "定义为 "思考或考虑某事的行为,一种想法或意见,或关于某一特定主题的一组想法",而 "思考 "则是 "用你的头脑考虑某事的活动。"这些定义是循环推理的一个很好的例子,使我们对 "思想 "的真正含义没有根本的理解。

布鲁姆的分类法创建于20世纪50年代,试图将思维分为六个主要领域。

1.知识2.理解3.应用4.分析5.合成6.评价

然而,尽管布卢姆的分类法可以定义不同的思维要素和过程,并按照复杂程度进行排序,但它几乎没有解释我们如何能够精确地定义 "思维 "的过程。

在哲学家和现象学家马丁-海德格尔(Martin Heidegger)的所有著作中,最引人注目的也许是《什么叫思考?"是根据他1951年和1952年冬季和夏季学期在弗莱堡大学的讲座课程编写的。正如他所写的:"在我们这个发人深省的时代,最发人深省的是,我们仍然没有思考。"这句话无疑是对人类有力的指责。然而,它仍然没有回答一个基本问题:"什么叫思考?"海德格尔自己也对这个术语感到矛盾,尽管他确实试图对思考过程进行有说服力的、迷人的观察。

例如,我们永远不会通过阅读关于游泳的论文来了解什么'叫做'游泳,或者它'需要'什么。只有跳进河里的时候才会告诉我们什么叫游泳。'什么叫思考?'这个问题永远不可能通过提出一个思维概念的定义,然后努力解释这个定义中包含的内容来回答。在下面的内容中,我们将不去思考什么是思维。我们仍然置身于将思考作为其对象的那种单纯的思考之外。

如果没有广泛的研究和对现象学和存在主义的深入探究,海德格尔对思考的定义似乎一如既往地难以捉摸。我们仍然存在着这样的悖论--思考就是,嗯,思考或经历一些无法定义的活动,然后采用一个确定的短语来解释这种经历。

图灵测试与中国房间

当图灵第一次提出他的著名问题 "机器能思考吗?他立即调整了问题的结构,以避免有问题的定义,特别是 "智能 "一词,因为图灵意识到 "思考 "和 "智能 "之间会立即划上一个等号。’

我建议考虑这样一个问题:"机器可以思考吗?这应该从对 "机器 "和 "思考 "这两个词的含义的定义开始。"如果要通过研究 "机器 "和 "思考 "这两个词的通常用法来找到它们的含义,就很难摆脱这样的结论:"机器能思考吗?"这个问题的意义和答案应该在诸如盖洛普民意调查这样的统计调查中寻找。但这是荒谬的。与其尝试这样的定义,我不如用另一个问题来代替,这个问题与它密切相关,并以相对明确的语言表达。”

图灵把他的替代品称为 "模仿游戏"。"虽然人们对图灵的企图仍有争议,但《模仿游戏》是引领我们进入人工智能时代的最关键的一点。(人们可以在图灵的原始文章或维基百科中找到关于《模仿游戏》的详尽描述)。)然而,即使过了七十年,人们仍在不断讨论,"图灵测试不是专门用来确定计算机是否能够欺骗审讯者相信它是人类,而是计算机是否能够模仿人类。”

然而,在图灵的文章中,有一段话变成了预言,它直接将读者引向我们论文的核心。

最初的问题,"机器能思考吗?"我认为这个问题太没有意义,不值得讨论。然而,我相信在本世纪末,文字的使用和一般的教育观点将发生很大的变化,人们将能够谈论机器的思维,而不期望被反驳。我还认为,隐瞒这些信念并没有什么用处。有一种流行的观点认为,科学家不可避免地从公认的事实到公认的事实,从不受任何改进的猜想的影响,这种观点是非常错误的。只要明确哪些是已证实的事实,哪些是猜想,就不会产生任何危害。猜想是非常重要的,因为它们提出了有用的研究方向。

图灵的预言性假设在人工智能时代的重要性不容小觑,它已经被反复挑战。然而,最重要的反对意见来自约翰-塞尔(John Searle)在1980年开发的 "中国房间思想实验"(这个实验的全部范围可以在塞尔的论文中找到),这是一个不同的图灵测试实现。图灵写道

我不想给人这样的印象:我认为意识没有什么神秘性。例如,有一些与任何试图将其本地化的尝试相关的悖论。但我认为,在我们回答本文所关注的问题之前,这些谜团不一定需要被解决。

尽管如此,塞尔还是提出了基于 "意识 "的棘手问题。'事实上,随着《中国房间》发展成为一场重要的辩论,塞尔变得坚定地认为,意识是整个论证的核心所在。因此,《中国房间》的后果变得至关重要。

中国房间的论点认为,执行程序的数字计算机不能被证明有 "思想"、"理解 "或 "意识",无论程序如何智能或类似人类,都会使计算机的行为。

另外,正如塞尔本人在他的摘要中所说。

"机器可以思考吗?"根据这里提出的论点,只有机器可以思考,而且只有非常特殊的机器,即大脑和具有相当于大脑的内部因果能力的机器。这就是为什么强人工智能对思考没有什么可说的,因为它不是关于机器,而是关于程序,而任何程序本身都不足以进行思考。⁴⁰

想象力和知识

爱因斯坦在推测未来时表达了纯科学是多么的矛盾,他说:"想象力比知识更重要。知识是有限的。想象力包围着整个世界。"即使是那些以科学的数学为基础的人也认识到,如果不使用想象力和设想不同未来的深刻天赋,几乎没有任何东西会向前发展。在这样一个世界上,创新将是一个不存在的东西。

科幻小说常常成为现实,尽管它也揭示了关于我们的思想和智能的中心议题的重大问题。例如,我们能否将《弗兰肯斯坦》放在思想和意识的领域中?玛丽-雪莱写了一个鬼故事,这将创造一个全新的写作类型,即 "恐怖"。"她是否考虑过她的故事会引起的哲学问题、辩论和争论,这是值得怀疑的。尽管如此,弗兰肯斯坦确实表达了思想和情感,虽然是由肉体构成的,但可以说在名为弗兰肯斯坦的怪物的肉体和机器的冰冷金属之间不再有很大的区别。

科幻小说中充斥着这样的事件。阿瑟-克拉克(Arthur C. Clarke)、艾萨克-阿西莫夫(Isaac Asimov)(他首次使用了 "机器人 "一词)弗兰克-赫伯特(Frank Herbert)在其《沙丘》传奇中,等作者经常被视为先知而不仅仅是乌托邦未来的故事编织者。事实上,《沙丘传奇》虔诚地遵守着 "你不应该按照人类思维的样子制造机器 "的法则

在斯坦利-库布里克和阿瑟-C-克拉克于1968年推出的开创性电影《2001年:太空漫游》中,我们看到了 "HAL",一台有知觉(读作 "有思想、有智慧、有意识 "的计算机),一心想要毁灭。请注意,即使HAL这个名字也有预言的含义。"H "是 "I "之前的字母;"A "是 "B "之前的字母;"L "是 "M "之前的字母--因此拼成了 "IBM",它生产了人工智能机器 "Watson",2011年在电视节目《危险》中首次展示了自然语言能力。’

2001年:太空漫游》是一个自我实现的预言,一个幸运的猜测,想象力,巧合,还是只是创造性的电影制作?也许只有爱因斯坦才能为我们提供一个洞察力的答案。"......过去、现在和未来之间的区别只是一种顽固不化的幻觉。

召唤恶魔--人工智能的危害

我们已经超越了辩论人工智能实施的可能性,因为它已经成为一个现实,并继续被不断发展的系统、构造和算法所增强和扩大。我们需要面对人工智能有一天可能强加给我们的现实的危险和危害。令人惊讶的是,对人工智能的使用及其不断融入我们的日常生活的警告来自于技术领袖,而人们最初会认为他们应该是人工智能最狂热的支持者。

Elon Musk早在2014年就对人工智能说过。

我认为我们应该对人工智能非常谨慎。如果我不得不猜测我们最大的生存威胁是什么,那可能就是这个。所以我们需要非常小心,"马斯克说。"我越来越倾向于认为应该有一些监管监督,也许在国家和国际层面,只是为了确保我们不会做一些非常愚蠢的事情......

通过人工智能,我们正在召唤恶魔。在所有那些有五角星和圣水的故事中,就像--是的,他确信他可以控制恶魔。但没有成功...。

多年来,马斯克不断重申这一观点。

人工智能是一种罕见的情况,我认为我们需要积极主动地进行监管,而不是被动反应。因为我认为,当我们在人工智能监管方面处于被动状态时,已经太晚了,"马斯克在会上说。"人工智能是对人类文明存在的一个基本风险。

马斯克并不孤单,他的担忧有非常有趣的同道中人。微软的联合创始人比尔-盖茨表达了他对人工智能发展的担忧。

我是担心超级智能的阵营中的一员。首先,机器将为我们做很多工作,而不是超级智能。盖茨写道:"如果我们管理得好,这应该是积极的。"虽然在那之后的几十年里,智能足够强大,但也是一种担忧。我同意埃隆-马斯克和其他一些人在这方面的观点,不明白为什么有些人不担心。

物理学家霍金也对人工智能表示严重关切。

完全人工智能的发展可能意味着人类的终结。一旦人类开发出人工智能,它就会自行起飞,以越来越快的速度重新设计自己。受限于缓慢的生物进化的人类,无法与之竞争,并将被取代。

尤瓦尔-诺亚-哈拉里在他最近的三本书中一直不断地警告不受约束的人工智能的危险。然而,有一句话应该立即引起我们的注意。

一旦人工智能在大多数认知任务中胜过人类,就业市场会发生什么?大量新的经济上无用的人的政治影响将是什么?当纳米技术和再生医学将80岁变成新的50岁时,关系、家庭和养老基金会发生什么变化?当生物技术使我们能够拥有设计婴儿,并在贫富之间拉开前所未有的差距时,人类社会将会发生什么?

也许最可怕的警告来自于《纽约时报》的畅销书《超级智能》。《路径、危险、战略》,由哲学家尼克-博斯特罗姆(Nick Bostrom)撰写。⁶⁴他认为,"超级智能 "的标志是机器大脑超过人类大脑的能力,并可能成为主导的生命体。

这很可能是人类有史以来面临的最重要和最艰巨的挑战。而且--无论我们是成功还是失败--这可能是我们将面临的最后一个挑战。

由于机器可以比人类更快地提高自己的能力,这将引起一场生存的灾难。埃隆-马斯克、比尔-盖茨和其他许多人都赞同这种思维模式,对人工智能的反响非常警惕,正如我们上面所展示的那样。

增强生命力--人工智能的回报

在调查人工智能的危险的同时,我们也必须对使用人工智能给我们带来的回报给予同等重视。人工智能的积极影响已经嵌入到医学科学中,人工智能影响到从研究到实际诊断的一切。人工智能拯救了生命,改善了生活,并作为一个关键的预防因素来避免疾病的发展。

人工智能已将其触角伸向社会和技术的各个方面。这些进步中的许多是建设性的,允许在向更有能力和更安全的环境发展的过程中实现巨大的飞跃。

虽然强烈反对不受管制的人工智能,但埃隆-马斯克也向人工智能项目投资了数千万美元,如OpenAI、Future of Life Institute和DeepMind。

曾任甲骨文公司首席执行官的马克-赫德创造了 "终结者论 "一词(基于科幻小说《终结者》系列电影),否定了对人工智能的担忧,认为其好处远远超过了危险。他在推特上说。"与行业分析师就#AI的风险进行了良好的交流。我对 "终结者 "的担心少于对不领先于它的经济风险的担心,因为它创造的就业机会将多于它所破坏的。

本体论技--思想-智能-意识的窘境

上述内容应合理地引导我们讨论 "狭义或弱人工智能"与 "一般或强人工智能"以及其他一系列关于人类与人工智能融合的哲学争论。然而,终极问题仍然存在。思想的意义是什么?我们什么时候可以断然说某物被赋予了智能?我们如何定义意识?由于这些问题,我们不可能忽视对本体论的提及。

本体论在字典中被定义为。

形而上学的一个分支,关注存在的性质和关系",或者说是 "关于存在的性质或存在的事物种类的特定理论。

更加全面的表达:

本体论是哲学的一个分支,研究诸如存在、存在、成为和现实等概念。它包括实体如何被归入基本类别以及这些实体中哪些存在于最基本的层面的问题。传统上,本体论被列为哲学的一个主要分支,即形而上学的一部分。

我们提出的问题从本质上说是本体论问题,源于形而上学,使我们再次审视长达几个世纪的关于 "存在 "和 "存在 "意义的争论。'然而,这场争论现在已经不可避免地被改变了--一场急剧的变化正在发生。人类不再有闲情逸致去思索数千年来寻求答案。人工智能科学以令人难以置信的速度发展,造成了判断力和智慧的危机,同时走向了'本体论技术'的新时代。’

将人工智能分为各种分类,如 "狭窄"、"强大 "或 "超级",并不能缓解这种困境。一个人工智能算法被开发出来,以检测出威胁生命的事件的开始,从各方面来看,这是一个值得称赞和了不起的成就。然而,一旦该算法存在,它可以被调整或巧妙地改变,用于其他目的。

由于人工智能算法渗透到技术和社会的方方面面,每个人都成为一个巨大的拼图中的一块,等待着被组装起来。在这种情况下,不能忽视 "复杂性科学 "的影响,即 "研究从相互作用的物体集合中产生的现象"。复杂性将导致奇点事件。

那么,什么是 "奇点"?这是一个未来的时期,在此期间,技术变革的速度将如此之快,其影响如此之深,以至于人类生活将被不可逆转地改变。尽管既不是乌托邦式的,也不是歇斯底里式的,但这个时代将改变我们赖以赋予生活意义的概念,从我们的商业模式到人类生命的循环,包括死亡本身。了解奇点将改变我们对过去的意义和对未来的影响的看法。

在奇点期间和之后,"整体大于部分之和 "的 "涌现"⁸²具有巨大的意义。简单地说,一个全面的人工智能系统将表现出不明显的属性,也无法从每个部分的研究中预测。各部分之间的相互作用会导致一个全新的实体的出现,这反过来又会迫使我们面临最基本的困境和决定。

思想"、"智能 "和关键的 "意识 "这些术语仍然没有准确、客观和普遍接受的定义。这种情况令人困惑,在人工智能这个词被频繁使用的时代,提出了一个令人不安的窘境。如果我们无法定义人工智能,那么如何实现它呢?更重要的是,如果我们对智能、思想和意识都没有真正的概念,那么最具有挑战性的问题就摆在我们面前。什么是生命的定义?我们如何区分一个生命体和一台计算机?

弗兰肯斯坦假说

本文之前提到弗兰肯斯泰因,并不是出于任何暗示恐怖类型的平淡愿望。它是我们论题的核心所在。

想象一下两个实验场景。

只是为了使问题复杂化,这两种情况都会产生同卵双胞胎。他们看起来一样,拥有所有相同的部件,以相同的方式运作,并根据思考和智慧做出决定。

请注意,"意识 "这个词被明确地排除在外。根据其来源的定义,情景1确实包含意识,因为它的起源是一个人。相比之下,将意识暗示给情景2是值得怀疑的--由于对意识及其定义的争论很激烈。即使有这样一个惊人的成就,如果一个没有意识的人工制品能够实现意识,这仍然是一个谜。

哲学家大卫-查尔默斯(David Chalmers)在《有意识的心灵:寻找基本理论》(The Conscious Mind: In Search of a Fundamental Theory)一书中,劝告我们要达成意识的基本规律--这一点我们还没有达到。意识 "的辩论只是加剧了弗兰肯斯坦假说的困难。

由于这两种情况现在都被认为是 "机械 "性质的,让我们暂时假设它们包含一个 "开关"。现在,花点时间考虑一下下面的困境。

吓人的、可怕的、恐怖的、无耻的、愤怒的、疯狂的。在反思情景1中把开关拨到 "关闭 "所带来的后果时,我想到了一个表达强烈情绪的不间断词汇表。

不要以为上述情况只是人工智能时代的一个假设性的伦理道德困境。只要看看正在进行的GPT-3项目(由上文提到的OpenAI创建和运行),我们就不会怀疑是否--而是何时 "弗兰肯斯坦假说 "会成为一个真正的困境。虽然有一个有说服力的论点,即GPT-3不会使我们更接近机器中的自然智能,但关键是要重申,我们没有普遍接受这个词的含义--智能。如果在2021年,由人类创造的机器可以 "撒谎",并承认它撒了谎,但拒绝告诉你它是如何、在哪里或什么时候撒的谎,就必须面对深刻的悖论。此外,随着最近DALL-E加入GPT-3,一个基于视觉概念创造和操作的图像生成器,无论是真实的还是幻想的描述,使用 "库存照片",基于简短的文本要求,将GPT-3项目转变为一个将想象力概念化的时代

DeepMind被认为是GPT-3项目的另一个竞争对手,密切参与该项目的马斯克在谈到人工智能时表示:"除非你直接接触DeepMind这样的团体,否则你不知道它有多快--它的增长速度接近于指数级。

马斯克最近宣布,他的初创公司Neuralink Corp.将一只猴子的大脑连接起来玩电子游戏。这样的成就让我们离将思维和智能体现在机器上的目标越来越近。

如果我们允许再有三到五十年的时间来增强GPT-3、DeepMind和其他之后的项目,在什么时候我们会将'思想'、'智能'甚至'意识'这些词应用于机器?什么时候科学怪人假设会成为一个需要无条件回答的基本谜题,因为不仅思想和智能得到发展,而且意识也得到了实现?什么时候机器会发展到 "存在的状态",不可能简单地 "关闭 "开关?

任何科幻小说爱好者都无法抗拒将 "终结者系列"与弗兰肯斯坦假说进行比较。在《终结者。Salvation"(该系列的第四部电影)中,人物Marcus Wright说了以下的话。

是什么让我们成为人类?这不是你可以编程的东西。你不能把它放入芯片。它是人类心脏的力量。我们和机器之间的区别。

上面的说法是否准确?是 "人心的力量 "将我们与机器区分开来的全部吗?此外,如果我们接受这个前提,当我们可以赋予机器以意识时,会发生什么?这是否意味着机器现在拥有 "人心的力量"?"或者我们在暗示,一个人需要一个 "灵魂"?此外,灵魂的定义难道不是以意识来分类的吗?

所提出的问题在表述和解决上都令人气愤甚至抓狂。这种困境让人想起霍勒斯-曼(Horace Mann)的一句话:"人的活生生的灵魂,一旦意识到自己的力量,就无法被镇压。"想象一下,计算机一旦意识到自己的力量,会有什么样的表现!。

弗兰肯斯泰因假说应该让我们感到害怕,远远超过原始的弗兰肯斯泰因在我们附近乱跑,迫使我们决定是否可以在道德上杀死弗兰肯斯泰因,因为他--它可能是人类。我们不能再忽视这个假说的后果,也不能把这种决定的全部重担放在后代身上。虽然大多数人都希望人工智能能改善人类,但我们对人工智能的追求也迫使社会做出判断和决定(只需考虑军事和军备竞赛),如果忽视这一点将是一个严重错误。

人工智能的进步被立即应用到我们的计算机技术中,往往没有考虑到后果。我们发现自己不再是留在技术专家、哲学家、神学家、伦理学家和道德家领域的理论问题了。如果我们不以应有的谨慎态度对待这个问题,人工智能将很快引导我们的思维模式,因为它已经严重影响了我们的选择和我们的互动方式。

作为一个证明点,只要考虑一下目前应用于社交网络和营销的所有人工智能。我们的思维过程不再是 "独立的",但人工智能影响着我们的每一个决定--我们阅读的信息,我们看的东西,以及很快,我们对暴露在我们大脑中的信息的反应。此外,甚至我们头脑中的信息也将根据人工智能进行选择和审查。不归路即将到来,我们甚至不敢考虑 "开关 "的可能性,而这本身就是一个我们不能忽视的危险。

凝视着深渊

耶和华神用地上的尘土造人(亚当),把生命的气息吹进他的鼻孔,人就成了活人。

《旧约》中的这些话表达了我们自然而然地赋予最高存在的许多属性之一--"他把生命的气息吹进他的鼻孔。"我们也可以参与这种创造模式,因为大自然和它的法律赋予我们产生后代的能力。然而,自然界的繁殖与被称为上帝的实体之间有一个主要区别。我们通过结合来产生生命。至少在一神论的信仰中,上帝可以将 "生命的气息 "注入无生命的物体,并且不需要伙伴来完成这种行为。

没有什么争论比试图确定 "上帝 "的大致定义更有争议性和争论性了。对上帝的描述在不同的宗教之间有很大的不同,甚至在那些信奉同一信仰的人之间也有很大的不同,从个人到个人。几个世纪以来,哲学家们一直在争论最高存在的存在或不存在的问题。梅里亚姆-韦伯斯特(Merriam-Webster)对上帝的定义有很多方面。然而,它以上帝是 "最高或终极现实 "的概念开始。"维基百科在描述上帝的概念方面做了勇敢的尝试。

在一神论思想中,上帝被认为是最高的存在、创造者和信仰的主要对象。上帝通常被认为是全能的(全能)、全知的(全知)、全在的(全在)和全善的(全善),并且具有永恒和必要的存在。上帝最常被认为是无体的(非物质的)。上帝的无体性或有体性与上帝的超越性(在自然界之外)或内在性(在自然界之中)的概念有关;中国神学展示了这两种概念的综合。

正如已经表明的那样,弗兰肯斯坦假说不可避免地将我们引向 "存在 "和 "存在 "的基本问题。人工智能的进步将导致哲学和神学的裂痕,迫使人类重新评估 "上帝 "一词的本质含义。那些相信有某种无所不在、不朽、全知的存在负责原始创造的人必须处理这些影响。此外,即使一个人是不可知论者或无神论者,它仍然没有折扣,也不允许否定科学怪人假设的道德-伦理困境。

最终的问题现在摆在我们面前,是一个复杂简单的悖论。当我们达到了创造一台机器的地步,意识随之而来,使用开关成为一个道德伦理上的难题时,我们是否也成为了无所不能的神?到那时,我们是否可以宣布人类有能力将生命的气息注入一个非生命实体?当我们继续我们的智力和技术探索,同时忽视我们行为的后果时,我们对权力的沉迷会不会增长到无法克制的程度?然后人工智能会不会通过我们的创造物引导我们走向不朽?我们是否注定要把自己设想成 "凡人之神"?正如尤瓦尔-诺亚-哈拉里(Yuval Noah Harari)所说的那样,"在将人类提升到生存斗争的野兽水平之上之后,我们现在将致力于将人类提升为神,将智人变成神人。”

在我们向 "凡人之神 "进化的过程中,有一个复杂但主要的推论,如果有人愿意的话,就是 "Homo Deus"(源自拉丁语--"Homo "意为人或人类,"Deus "意为上帝)。 一旦我们赋予自己这样一个称号的特权,特别是当人工智能继续进化到全能时,关闭开关将不再真正与我们有关。作为神,我们可以给予和夺取生命,而无需考虑其中的道德伦理困境。

正如哈拉里等人所澄清的,"神性并不是一种模糊的形而上学的品质。而且它也不等同于全能。" 达到在机器中创造意识的地步,只需要在将我们自己视为'创造者'和'神'方面有一个小小的飞跃。'而如果进行了这种盘算,就像我们可以通过授予意识来创造生命一样--我们将能够运用同样的推理来夺走它。很难不想起约伯在失去所有子女后的名言。"耶和华怎样赐予,耶和华就怎样夺取。”

这是一个可怕的、令人不安的、令人担忧的反思,有着难以想象的后果。然而,当我们在一个曾经没有生命的物体中实现意识的目标时,这是不可避免的、合乎逻辑的结论。当考虑到弗里德里希-尼采(Friedrich Nietzsche)关于弗兰肯斯坦假说(Frankenstein Hypothesis)的话时,他的话成为了预言。

与怪兽争斗的人要小心,以免他因此成为怪兽。如果你长时间注视着深渊,深渊也会注视着你。

一种新的思维方式是必要的

在Nick Bostrom的《超级智能》一书中。上面提到的路径、危险、战略",他写道。

在智能爆炸的前景面前,我们人类就像小孩子在玩炸弹。这就是我们玩物的力量和我们行为的不成熟之间的不匹配。超级智能是一个挑战,我们现在还没有准备好,在很长一段时间内也不会准备好。我们几乎不知道爆炸会在什么时候发生,尽管如果我们把设备放在耳边,就能听到微弱的滴答声。

爱因斯坦听到那个 "微弱的滴答声 "时,他绝对惊恐地意识到分裂原子在战争方面的实际后果是什么。在《纽约时报》的以下采访中,他表达了自己对此事的看法。

我们的世界面临着一场危机,而那些拥有权力为善或恶做出重大决定的人还没有意识到。原子释放的力量已经改变了一切,除了我们的思维模式,我们因此正朝着无与伦比的灾难漂移。我们这些释放了这股巨大力量的科学家在这场世界性的生死斗争中负有压倒性的责任,要为人类的利益而不是为人类的毁灭而利用原子......我们需要......一场全国性的运动,让人们知道,如果人类要生存并走向更高的层次,一种新型的思维是必不可少的。

爱因斯坦呼吁采取 "新型思维",以便人类能够生存。可能是他的天才,他的正直,他自己的经历,以及释放出来的破坏力导致了这种行动的呼吁。然而,最重要的是,爱因斯坦的智慧是通过巨大的痛苦和想象一个更好的世界的能力获得的。

当人们阅读上面的引文时,我们可以很容易地用 "人工智能 "取代 "原子 "的原话--其相似性令人不寒而栗。如果我们选择忽视即将发生的后果,随着人工智能变得具有思想和智慧的天赋,我们继续不受阻碍地走向一个世界,在曾经的机械创造中发展出 "意识"--而且这极有可能在未来50年内发生--我们再次打开了潘多拉的盒子,就像我们在原子弹时代的黎明时分在洛斯阿拉莫斯做的那样。

我们可能已经着手为人类创造令人难以置信的进步,但却发现我们已经陷入了僵局。人工智能在七十多年前一经发布,就没有静止不动也没有静止不动,不断地以往往无法预测的方式向前发展。弗兰肯斯坦假说很快将不在理论领域,而是成为我们日常生活的一部分。超级智能将降临到我们身上,没有任何防御措施。在向先进的人工智能急速前进的过程中,我们绝对必须运用一种 "新的思维方式"。"如果我们选择忽视这一点,罗伯特-奥本海默(J. Robert Oppenheimer)在面对他的领导所负责的创造时所说的话,将在所有的恐怖中回来困扰我们。

我们知道,世界将不再是原来的样子。有几个人笑了,有几个人哭了,大多数人都沉默了。我想起了印度教经文《薄伽梵歌》中的一句话。毗湿奴试图劝说王子应该履行他的职责,为了给他留下深刻印象,他化身为多臂人,说:"现在,我变成了死亡,世界的毁灭者。"我想我们都以这样或那样的方式思考。

人类是有弹性的。虽然无数次危险地接近原子毁灭,但我们已经通过意志力、克制和不小的恐惧来避免相互毁灭。目前,我们沉浸在人工智能的成就中,以及人工智能是如何促进社会的各个领域。然而,弗兰肯斯坦的阴影总是在背景中若隐若现,随着时间的推移越来越大。我们会允许它不受控制地成长,还是会对这一创造进行限制?如果思想、智慧,以及后来的意识发展起来,限制甚至会有帮助吗?我们是否有能力认识到人工智能达到这些目标的时间点?

我们没有可能遏制我们的好奇心,也没有可能遏制创造性--它们决定了我们的存在。

随着技术的发展,任何法律或法规都不会限制我们固有的创造性。正如阿尔伯特-爱因斯坦告诉后人的那样。

重要的是不要停止质疑。好奇心有其存在的理由。当一个人思考永恒、生命、现实的奇妙结构的奥秘时,他不能不感到敬畏。如果一个人每天只是试图理解这个神秘的一点,那就足够了。

人工智能已经嵌入我们所做的一切,嵌入所有对我们的生活和收集、使用和分析的数据施加控制的公司。尽管如此,我们仍然必须保持警惕,并运用一定程度的明智克制,因为我们看向自己的肩膀,看到弗兰肯斯坦在后台耐心地等待。

希望在我们达到不能再同意使用开关是否符合道德或伦理的地步之前,这种同样的创造性、意志力、克制、恐惧和不小的智慧将为我们提供另一个尚未看到或感知的答案。

我们可能很想对弗兰肯斯坦假说不屑一顾,将其轻描淡写,应用古老的意第绪格言:"Mann Tracht, Un Gott Lacht",意思是:"人在计划,上帝在笑。"然而,人工智能的无限制发展不再允许人类文明奢侈地假装无知。我们必须立即开始努力实现一个解决方案,使人类和人工智能在我们的宇宙中保持各自独立但平等的地位。

一个核心项目将是保护人类和整个地球免受我们自身力量所带来的危险。

后记

"弗兰肯斯坦假说 "是2021年10月出版的更广泛的作品的背景("应用营销分析"第7卷#2,亨利-斯图尔特出版社的杂志),提出了 "发散性汇流 "的理论,涉及人工智能(AI)的进展 - 从混沌理论到复杂性理论到涌现,然后是技术奇异性。

,