1

AI,真的觉醒了?

人工智能,会苏醒吗?

这是一个古老而又新奇的话题。

深度学习”天生的不可预测,加深了这种忧虑。

神经网络”的生物性类比,让“AI黑匣子”更让人担心。

最近,一个谷歌工程师再次引爆该话题:AI觉醒了?

2022年6月,谷歌工程师Lemoine表示,自己在与AI“LaMDA”聊天中,发现了后者的回答已经高度人格化,认为该AI已经“觉醒”。

为此,Lemoine写了一篇长达21页的调查报告,试图让高层认可AI的人格。

不过,谷歌高层暂未表态,希望获得更清晰的认定。

但Lemoine仿佛化身科幻电影主角,他没有放弃,将自己和AI的聊天记录公布于众,引发轩然大波。《华盛顿邮报》跟进报道后,更是在全球炸圈。

人类不能重现的现场(18年后无人幸免)(1)

AI真的觉醒了吗?争议不断。

有人说,这是《西部世界》式的预警;

有人说,这是人的拟人倾向在作祟;

有人说,Lemoine精神方面存在问题;

有人说,这只是谷歌设计的一场营销

......

不管真相如何,有一点可以肯定:

因为深度学习神经网络的加持,人工智能已经越来越“不可捉摸”。

2

那一夜,人类安然睡去

关于AI觉醒,让人想起了6年前的另一件事。

2016年3月13日,人类和AI在围棋上进行一场智力的终极较量

在此之前,AI与人类较量屡屡得手。

但人类认为,围棋是AI不可突破的天花板

因为可测宇宙原子总数约为10^80,而围棋走法有2.08*10^170,AlphaGo不可能依靠计算量算力枚举来获胜,那么,拥有创造力的人类,怎么可能败给AI。如果围棋上败给了AI,那么说明它已经完成了“图灵测试”。

然而,前三局,李世石一败再败,全世界震惊了。

第四局,李世石判断黑空中有棋,下出白78挖。李世石这史诗级的“神之一手”,体现了人类巅峰的直觉、算力和创造力。这也是人类最后的尊严之战。

人类不能重现的现场(18年后无人幸免)(2)

那个漫漫长夜,人类终于长吐了口气,似乎一切都是虚惊一场。

当年围棋第一的李世石,回到自己的住处,在疲惫不堪中沉沉睡去。

只有AI对手AlphaGo,在蒙特卡罗模拟场中继续训练,和自己又下了一百万盘棋。

第二天太阳照常升起,一切似乎都和昨日无异。

然而李世石依旧是李世石,但AlphaGo再也不是“阿尔法狗”了

此后,人类在围棋领域再没有战胜人工智能的战绩。

当年一个作者写下上段内容(有修改),并提到“23年后,无人幸免”,科学家建立了一个数学模型,判断2040年人工智能可能会达到普通人的智能水平,并引发智力爆炸

面对越来越普遍的AI,机器即将代替人类,AI正在迅速扩张

一个合力共建的“超级大脑”;

一张指数增长的“神经网络”;

一个初具规模的“硅基秩序”;

............

五年过去了,人类朝着“黑客帝国”大步迈进。

那么18年后,真的无人幸免

3

AI的另一面:不够稳定

以上两件事,本质上都是对AI觉醒的担忧。

一个拥有自由意志的AI不可信,最终会威胁到人类。

霍金警告人类要正视人工智能带来的威胁。

比尔·盖茨认为人工智能是“召唤恶魔”。

2001太空漫游》中,超级电脑HAL9000在宇宙中将人类无情抹杀。

黑客帝国》中,人类被AI禁锢在矩阵之中。

不过,实事求是地讲,对AI觉醒的不可信,仍然只是人类臆测。

虽然科幻电影里描写得残酷冰冷,也还没有得到普遍证实。

但AI的另一个“不可信”,却是真实存在的。

它不是太聪明太智慧或者产生意识,而是不够稳定

这种不稳定,产生的后果才真的“瘆人”。

2015年2月,英国进行了首例机器人心瓣修复手术。

这本是一场最尖端医疗AI技术的展示,但最终以惨痛的失败告终。

在手术过程中,AI的操作并不如我们想象中那么完美:

机器人把病人的心脏“放错位置”,还戳穿大动脉;

大动脉戳破后血溅到机器人的摄像头,导致机器“失明”;

机械臂“乱动”打到医生的手,影响医生行动;

机器人主机发出的声音过于嘈杂,影响医生之间的交流。

种种问题,最终导致患者在一周后不治身亡。

人类不能重现的现场(18年后无人幸免)(3)

2021年,重庆朝天门。

一次大规模的上百架无人机进行表演测试。

原本是一次技术的演出展现,但却出现了意外。

带着灯光的无人机群突然像扑火的飞蛾撞向大楼。

关于人工智能“失灵”的例子还有很多很多,这是AI不够沉稳的一面。

这才是实实在在“不可信”的地方,也是AI对人类真正的威胁。

我们不愿意看到AI“觉醒”,但更不能接受人工智能“轻率”

4

人类需要的是一个可信的AI

所以,人类需要一个“可信AI”。

AI是聪明还是愚蠢,也许并不重要。

AI是进化还是退化,可能暂时只是一个伪命题。

人类需要的是一个可靠的助手,一个值得信任的机器助理

我是你的创造者,你得听我的吧,不能瞎捣乱。

阿西莫夫在七十年前就提出了“机器人学三大定律”:

1.机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

2.机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

3.机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

这是人类在AI伦理思考中的方向。

可以把它称为是人工智能社会的道德准则

对于人类来说,可信,才是我们对AI最重要的需求。

如果从“贝叶斯-拉普拉斯”定理开始溯源人工智慧,目标是解决“逆向概率”问题,其实本质就是解决AI的可信赖度

人类不能重现的现场(18年后无人幸免)(4)

如果不能做到可信,AI就有可能反噬人类。

最起码AI与我们相伴要保证人类两点:生命安全财产安全

自动驾驶为例,如果人工智能以准确率为99.99%概率推算,0.01%的失误率依旧会让人心惊胆战。如果未来城市有一百万辆自动驾驶汽车,即便是0.01%的失误率,对人类生命安全造成威胁的隐患车辆仍有一百辆

如果我们不能拥有可信AI,我们自然无法确定,人工智能给我们带来的到底是技术的进步,还是无数潜在的威胁。

可信AI,虽然它不像“AI觉醒”这样能够引发世界关注。

但实际上它才是人工智能领域最有价值的航灯,也是现在科技公司追求的方向

5

什么是可信AI,

这16个技术小哥在做什么?

所以,什么是可信AI?

可能很多人还不知道,先得把这个定义弄清楚。

我们可以先看一档节目《燃烧吧,天才程序员2·可信AI》。

这款综艺节目第一季在豆瓣评分8.0,让人脑洞大开。

在第二季中,16个AI技术小伙分为四个团队待在“小黑屋”中四天三夜,完成60个小时任务挑战。

比赛中,他们需要与“黑产”进行无数次较量,培养出与帮助人类的“可信AI”,打败“黑产”,最终决出最强团队

关于程序技术的综艺节目,在中国乃至世界都非常稀缺

一方面程序与代码本身过于硬核,普通人难以理解。

另一方面则是节目脚本设置冲突相比其他综艺要更难一些。

但《燃烧吧,天才程序员2·可信AI》通过“反诈骗”这一实际场景需要,以此构建起节目的比赛逻辑。

人类不能重现的现场(18年后无人幸免)(5)

16个AI技术小伙需要直面欺诈交易识别、联合反诈等关卡的挑战

通过AI与攻防互相协作,覆盖反诈全链路。

比赛之中,程序员们通过创造“可信AI”,完成“科技反诈”。

哪一个团队产出的算法和模型在数据的识别准确率覆盖率更好,就能赢得比赛胜利。

虽然不如《黑客帝国》那般深刻宏大,也不如《人工智能》那样发人深省。

但《燃烧吧,天才程序员》却通过真实的应用场景,解决现实生活存在的实际问题。

当你看完整个节目时就会明白,原来这就是可信AI:依照现有数据构建智能模型,非常稳定地解决现实难题

可信AI的技术应用范围非常广泛,反诈是其中一个重要应用场景。

可信AI没有那么遥远,它近在咫尺。它也没有那么神秘,很多时候它就是你身边的小助理。

当前基于神经网络的AI技术非常酷,同时占据AI话题至高点,以创造力和神秘性提供太多想象空间,也是许多AI技术员仰视的圣殿。但它面临的问题也非常多:具有不可解释、鲁棒性差、过于依赖数据等缺陷,隐藏着许多潜在危害

而可信AI的存在,就是为了解决这些“信任危机”问题。

如果说基于神经网络的AI技术有着强烈的理想主义,那么基于大数据整理的AI技术则是一个脚踏实地的现实执行者。

6

可信AI的技术特点

要真正了解可信AI对人类的帮助,需要从技术底层入手。

可信AI有四大技术特点:鲁棒性、隐私保护、可解释性、公平性

人类不能重现的现场(18年后无人幸免)(6)

01

鲁棒性

鲁棒性指在异常和危险情况下系统生存的能力和算法稳定

1、前者指的是系统抗打击的能力,如计算机软件在输入错误、磁盘故障、网络过载或恶意攻击情况下,能否不死机不崩溃。打个比方,如果把一个AI模型比喻成万里长城,那么其鲁棒性便是长城在面对恶劣天气(如台风)、自然灾害(如地震)时,人工轰炸时仍然可以做到不轻易倒塌

2、后者指的是AI模型中算法本身的稳定性,如果添加扰动的熊猫照片,轻易就绕开了AI模型的“眼睛”,则说明其鲁棒性比较差;比如在欺诈交易中,由于作案手法不断升级,可能导致基于既往数据训练的模型,面临着新风险数据带来的稳定性考验,需要不断迭代来保障模型的分析和识别能力

人类不能重现的现场(18年后无人幸免)(7)

支付宝为例。支付宝每天都有上亿笔交易,其对抗的不是散户,而是专业的黑产团伙。他们可能有两种攻击方式:

1、对现在的防御体系找到漏洞进行攻击,那就要看AI鲁棒性的抗攻击能力

2、输入从未有过的污染数据,逃避现有算法追踪,这就要AI模型的算法稳定性

为了保障资金安全,蚂蚁集团引入“博弈智能攻防”技术,该技术具有对风险知识模型提前模拟、提前训练、提前补防的能力。应用该技术的AI模型鲁棒性有大幅提升,实现“左右互搏”,既能够更智能地“攻”,也能更安全地“防”。

02

隐私保护

传统的数据保护方法客观上形成了「数据孤岛」,影响了如医疗、金融等领域的协同作战,也制约 AI 技术以及行业发展。

所以,拓展数据价值的隐私计算技术,对实现「数据不动价值动」显得尤为重要

在AI领域,联邦学习作为一种新的机器学习模型和算法,就是为解决数据孤岛问题而提出的。在保证每个参与方不泄露原始数据,即数据不出域的前提下,用多方的数据联合建模,实现数据可用不可见,进而实现「数据不动价值动」。

03

可解释性

人类对一切未知的东西,始终都会有一种莫名的恐惧。

如果人工智能的行为无法进行解释,只有结果没有过程,那么它就像是一个盲盒,你永远不知道放出来的是“阿拉丁”,还是“潘多拉”。

AI 模型是许多重要决策的重要依据,在很多应用里它的思考过程不能是黑盒

人类希望知道模型背后的逻辑、收获新的知识,并在它出现问题时踩好刹车,确保 AI 思考的过程和结果合规合法

这背后需要数据驱动模型推理能力结合起来,产生可解释的结果

04

公平性

AI公平性是可信AI的重要组成部分。

只有实现“公平性”,才能真正推动技术造福于整个社会。

一方面,公平性需要重视弱势人群、兼顾落后地区发展,在重视社会伦理原则下进行 AI 调优,通过 AI 技术,让老年人、残障人士、欠发达地区用户,享受到数字经济时代的价值。

另一方面,公平性要思考如何从技术上思考如何减少算法、数据等因素可能带来的 AI 决策偏见

鲁棒性、隐私保护、可解释性、公平性

这是可信AI的四大基本原则

今天,发展可信AI,已经成为全球共识

特别是对于领先的科技公司来讲,他们是要服务用户且不能犯错误的。

微软、谷歌、蚂蚁、京东、腾讯、旷世等科技企业,都在积极开展可信AI的研究和探索。

其中,蚂蚁在可信AI上已有很多技术优势,自2015年开始投入研究起,已经完成了长达7年可信AI技术积累之路

人类不能重现的现场(18年后无人幸免)(8)

2021年权威专利机构IPR daily发布的《人工智能安全可信关键技术专利报告》显示,蚂蚁集团旗下的支付宝在该领域的专利申请数授权数,均位列全球第一

7

可信AI的应用探索

基于可信AI的以上特点,应用场景多种多样。

AI在医疗、教育、工业、金融等多个领域的广泛应用,算法安全性、数据滥用、数据歧视等问题也层出不穷。当前AI技术的主要矛盾,已经转化为人们对AI日益增长的应用范围需求和AI不可信不够稳的发展之间的矛盾

2018年,IBM开发了多个AI可信工具,以评估测试人工智能产品在研发过程中的公平性、鲁棒性、可解释性、可问责性、价值一致性。之后IBM将这些工具捐献给Linux Foundation并成为了开源项目,帮助开发人员和数据科学家构建可信、安全、可解释的人工智能系统。

作为可信AI领域的先行者之一,蚂蚁也做了不少探索。

蚂蚁的可信AI技术应用最好的实践结果是,自研了一套智能风控解决方案,定名IMAGE。这套技术体系实现了用可信AI技术保障风控业务安全的问题,且达到了非常好的效果。

它能将支付宝资损率控制在千万分之0.098,解决了风控场景中的诸多世界难题

还有一个例子,是支付宝的“叫醒热线”——从系统识别到用户遇到诈骗风险,到AI机器人向用户呼出“叫醒电话”,它能把整个过程控制在0.1秒内。

人类不能重现的现场(18年后无人幸免)(9)

蚂蚁集团基于可信AI的IMAGE风控体系

另外在可信AI的公平性方面,蚂蚁也有自己的实际应用。

目前业内广泛使用的“图形滑块验证码”一直是视障人群接入数字化服务的巨大障碍。但许多 APP 为了防范机器批量操作,又不得不保留验证码服务。

为此,蚂蚁开发了一套“空中手势”验证码方案,可以利用“行为识别”技术帮助视障群体通过“验证码”关卡。

可信AI的应用探索,并不会让AI技术失去它的可能性。

它更像是一种伦理规范的约束条约,让AI在正确的轨道上前行

8

18年后,人类真的无人幸免?

让我们回到一开始的问题。

AI真的会觉醒吗?

一百年前的人类,很难想象我们如今生活的这个高度数字化世界

那么,一百年后,人工智能会发生什么变革,我们真的无法预测。

但AI对人类是福是祸,是一个攸关人类命运的重要课题。

按照现在AI发展的模式来看,未来的AI可能会分为两大派:

一派是自我独立的智能AI,一派是追随人类的可信AI

人类不能重现的现场(18年后无人幸免)(10)

当然,还有人在问,AI真的会存在独立意志吗?

这要看从科学上如何去解释,一个AI系统是可以“坎陷”到具有“自我意识”的状态,差别只在于“坎陷”的深度和鲁棒性,这可以解释AlphaZero为什么能够自我“坎陷”到围棋大师,如果再“坎陷”下去呢?这一派AI,可能会对人类造成我们认定的“威胁”

另一派AI,即可信AI,它们会在四大基本原则的架构中不断完善自我,帮助人类解决更多实际问题,成为人类可靠的助手,并与人类共存共生。那么,它们会一直帮助和保护人类吗?

但无论未来如何发展,不同的技术方向或许带来不同的悲剧或者喜剧,但有一点可以确定:

AI技术在四面突击,不论是可信AI还是智能AI,最终会落地深入到我们生活的方方面面。它会渗透到世界的每一个角落,在很多方面取代“无用之人”。

不管我们如何担忧,AI只会变得越来越强大,而人类的进化又显得如此龟速,甚至退化堕落。

那么,18年后,有多少人可以幸免?

,