凯文·鲁斯
·我们正处于人工智能进步的黄金时代,是时候开始认真对待它的潜力和风险了。
·首先,监管机构和政治家需要跟上速度。其次,大型科技公司在人工智能开发方面投资数十亿美元,需要更好地解释他们正在做什么,不要美化或轻描淡写这些风险。第三,新闻媒体需要更好地向非专家解释人工智能的进展。
【编者按】“感觉更像是轻轻弹了一下开关——不可能的魔法突然成为可能。”8月25日,美国科技专栏作家、《未来可验证性:自动化时代人类九大规则》(Futureproof: 9 Rules for Humans in the Age of Automation)的作者凯文·鲁斯(Kevin Roose)发表文章,总结近期人工智能在各个领域取得的重大突破:从艺术、文本、语音到生物学均进展迅速,甚至被认为有了意识。鲁斯认为,目前还缺少一种共享的、价值中立的方式,来谈论当今的人工智能系统实际上能够做什么,以及这些功能存在哪些具体风险和机会。以下为凯文·鲁斯的新作:
此图像由OpenAI的应用程序DALL-E 2从“无限快乐”一词中生成。
过去几天,我一直在玩DALL-E 2,这是一个由旧金山企业OpenAI开发的应用程序,可以将文本描述转换为超现实的图像。
OpenAI邀请我在测试期间测试DALL-E 2(这个名字来自于皮克斯电影WALL-E和艺术家达利),我很快就着迷了。我花了几个小时想出奇怪、有趣和抽象的提示给人工智能——“一个形状像羊角面包的郊区住宅的3D渲染”,“1850年代青蛙Kermit的达盖尔银板照相式肖像”,“两只企鹅在巴黎小酒馆喝葡萄酒的铅笔素描”。几秒钟内,DALL-E 2会吐出一些描绘我请求的图像——通常带有令人瞠目结舌的现实主义风格。
例如,这是我输入“20世纪20年代黑帮自拍的黑白复古照片”时,DALL-E 2做出的图像之一,以及一张“用蓝色纱线编织的帆船”的高质量照片。
“20世纪20年代黑帮自拍的黑白复古照片”,由OpenAI的DALL-E 2生成。
“一艘用蓝色纱线编织的帆船”,由OpenAI的DALL-E 2生成。
DALL-E 2也可以更抽象。例如,文章开头的插图是我要求描绘“无限快乐”时产生的插图。(我非常喜欢这个,我打算把它打印出来,并装进我墙上的画框。)
DALL-E 2令人印象深刻的不仅仅是它生成的艺术,而是如何生成艺术。这些不是由现有互联网图像制成的复合材料——它们是通过被称为diffusion的复杂人工智能进程制作的全新作品,从随机的一系列像素开始反复提炼,直到与给定的文本描述相匹配。而且它正在迅速改善——DALL-E 2的图像细致程度,是去年才推出的原始DALL-E生成图像的四倍。
DALL-E 2在今年宣布时得到了很多关注,这是理所当然的。这是一项令人印象深刻的技术,对任何以图像为生的人——插画家、平面设计师、摄影师等都有重大影响。它还提出了一个重要问题,即所有这些人工智能生成的艺术将用于什么,以及我们是否需要担心,虚假宣传、超现实的深度伪造甚至未经同意的色情图像正在激增。
但艺术并不是人工智能取得重大进展的唯一领域。
在过去10年里——一些人工智能研究人员称之为“黄金十年”——由于深度学习等技术的兴起,用于运行庞大的、计算密集型人工智能模型的专业硬件的出现,人工智能研究的许多领域都取得了一波进展。
其中一些进展缓慢而稳定,但有时感觉更像是轻轻弹了一下开关——不可能的魔法突然成为可能。
例如,就在五年前,人工智能世界最大的故事是AlphaGo,这是一个由谷歌DeepMind构建的深度学习模型,可以在棋盘比赛中击败最厉害的人类。训练人工智能来赢得围棋比赛是一个有趣的游戏,但并不完全是大多数人关心的那种进步。
但去年,DeepMind的AlphaFold——一个Go人工智能系统的后代——做了一些真正有深刻影响的事。它使用经过训练的深度神经网络,从氨基酸序列中预测蛋白质的三维结构,从本质上解决了所谓的“蛋白质折叠问题”,这个问题几十年来一直困扰着分子生物学家。
今年夏天,DeepMind宣布,AlphaFold已经对已知存在的几乎所有2亿种蛋白质进行了预测——产生了一个数据宝库,将帮助医学研究人员在未来几年开发新药和疫苗。去年,《科学》杂志认识到AlphaFold的重要性,将其评为当年最大的科学突破。
或者看看人工智能生成的文本发生了什么。
就在几年前,人工智能聊天机器人甚至为进行基本的对话而艰难努力——更不用说更困难的语言任务了。
但现在,像OpenAI的GPT-3这样的大型语言模型正被用于编写剧本、编写营销电子邮件和开发电子游戏。(去年我甚至用GPT-3写了一篇书评——如果我事先没有告诉编辑,我怀疑他们会不会产生怀疑。)
人工智能也在编写代码——超过100万人注册使用GitHub的Copilot,该工具于去年发布,通过自动完成代码片段来帮助程序员更快地工作。
还有谷歌的人工智能模型LaMDA,几个月前,谷歌高级工程师布莱克·勒蒙(Blake Lemoine)声称LaMDA已经变得有意识后被解雇,上了头条新闻。
谷歌对勒蒙的说法提出异议,许多人工智能研究人员对他的结论也进行了嘲笑。但光看提到意识的那部分,以及他所说的,LaMDA和其他最先进的语言模型正变得非常擅长进行像人一样的文本对话,我们就不会觉得好笑了。
事实上,许多专家会告诉你,现在人工智能在很多事情上都越来越强,即使在语言和推理等人类曾占上风的领域。
“感觉我们从春天到了夏天。”斯坦福大学年度《人工智能指数报告》的联合主席杰克·克拉克(Jack Clark)说,“春天,能感觉到模糊的进展,到处都是小绿芽。现在,一切都在盛开。”
过去,人工智能的进展大多只有跟踪最新研究论文和会议演示文稿的内部人士知道。但最近,克拉克说,即使是外行人也能感觉到区别。
“你过去常常看着人工智能生成的语言,然后说,‘哇,它写了一句话’。”克拉克说,“现在你看着人工智能生成的东西,说‘这真的很有趣,我喜欢读这个’,或者‘我甚至不知道这是人工智能生成的’。”
仍然有很多糟糕、失败的人工智能,从种族主义的聊天机器人到导致车祸的有缺陷的自动驾驶系统。即使人工智能迅速改善,通常也需要一段时间才能渗透到人们实际使用的产品和服务中。今天Google或OpenAI的人工智能突破,并不意味着你的Roomba扫地机器人明天能够写小说。
但最好的人工智能系统现在的确非常强大,并以如此快的速度改进着,以至于硅谷的对话开始发生转变。越来越少的专家会自信地预测,我们有几年甚至几十年时间为改变世界的人工智能浪潮做准备,许多人现在认为,无论好坏,重大变化都即将到来。
研究人工智能风险的机构“开放慈善”的高级分析师阿杰雅·科特拉(Ajeya Cotra)两年前估计,2036年有15%的可能性会出现“变革性人工智能”,她和其他研究者将其定义为足以带来大规模经济和社会变革的人工智能,例如让大多数白领工作消失。
但在最近的一篇帖子中,科特拉将这一几率提高到35%,理由是GPT-3等系统的快速改进。
“人工智能系统可以在令人惊讶的短时间内,从可爱和无用的玩具变成非常强大的产品。” 科特拉告诉我,“人们应该更认真地对待,人工智能可能会很快改变事情,这可能真的很可怕。”
公平地说,有很多怀疑论者说,对人工智能进步的说法被夸大了。他们会告诉你,人工智能仍然远远没有成为有意识的人,或者会在各种各样的工作中取代人类。他们会说,像GPT-3和LaMDA这样的模型只是鹦鹉,盲目地重复训练数据,我们还需要几十年才能创造真正的人工智能——能够自己“思考”的人工智能。
还有一些技术乐观主义者认为人工智能的进步正在加速,并希望它更快地加速。他们认为,加快人工智能的改善速度将为我们提供治疗疾病、占领太空和避免生态灾难的新工具。
我不是要求你在这场辩论中站在某一边。我只想说:你应该更密切地关注推动它的真正、切实的发展。
毕竟,人工智能不会留在实验室里。它在我们每天使用的社交媒体应用程序中——Facebook帖子排名的算法、YouTube推荐和TikTok的个性化页面。它变成了军队使用的武器和孩子们在教室里使用的软件。银行使用人工智能来确定谁有资格获得贷款,警察部门使用它来调查犯罪。
即使怀疑论者是对的,而且人工智能多年来没有达到人类层面的感觉,也很容易看出GPT-3、LaMDA和DALL-E 2等系统如何成为社会中的强大力量。几年后,我们在互联网上遇到的绝大多数照片、视频和文本都可能是人工智能生成的。我们的在线互动可能会变得陌生和更令人担忧,因为我们很难弄清楚哪些对话伙伴是人类,哪些是令人信服的机器人。精通技术的宣传者可以利用这项技术大规模地散布有针对性的错误信息,以我们看不到的方式扭曲现实进程。
在人工智能世界,“我们需要就人工智能风险进行社会对话”是陈词滥调。已经有很多达沃斯小组、TED会谈、智囊团和人工智能道德委员会,勾勒出反乌托邦未来的应急计划。
缺少的是一种共享的、价值中立的方式来谈论当今的人工智能系统实际上能够做什么,以及这些功能存在哪些具体风险和机会。
我认为有三件事可以有所帮助。
首先,监管机构和政治家需要跟上速度。
由于这些人工智能系统很新,很少有政府官员对GPT-3或DALL-E 2等工具有一手经验,他们也无法掌握人工智能前沿进展的速度。
我们看到有一些努力在缩小差距——例如,斯坦福大学“以人为本人工智能研究所”最近为美国国会工作人员举办了为期三天的“人工智能新兵训练营”,但我们需要更多的政治家和监管机构来关注这项技术。
否则,我们最终可能会再次面临2016年大选后社交媒体发生的事,硅谷的权力和华盛顿的疏忽发生碰撞,只导致了政治僵局和急躁的听证会。
其次,大型科技公司在人工智能开发方面投资数十亿美元——世界上的谷歌们、Meta们和OpenAI们——需要更好地解释他们正在做什么,不要美化或轻描淡写这些风险。目前,许多最大型的人工智能模型都是闭门开发的,使用私人数据库,并且仅由内部团队进行测试。当有关信息被公开时,公司公关通常会降温处理,要么就被埋在深奥的科学论文中。
淡化人工智能风险以避免负面反应可能是一个明智的短期策略,但如果科技公司被看成悄悄推进与公众利益相悖的人工智能议程,它们将无法长期生存。如果这些公司不自愿公开,人工智能工程师应该绕过他们的老板,直接与决策者和记者本人交谈。
第三,新闻媒体需要更好地向非专家解释人工智能的进展。记者经常依靠过时、简单的科幻作品,将人工智能中发生的事情“翻译”给大众。我们有时会将大型语言模型与Skynet(编者注:《终结者》里的人工智能防御系统)和HAL 9000(编者注:《2001太空漫游》里的超级电脑)进行比较,并将有前途的机器学习突破,简化为惊恐的“机器人来了!”这些我们认为会引起读者共鸣的标题。偶尔,我们用基于硬件的工厂机器人的照片来说明基于软件的人工智能模型,这个错误就像把宝马的照片用在自行车的故事上一样莫名其妙。
广泛意义上讲,大多数人狭隘地看待人工智能,是因为它与我们有关——会抢走我的工作吗?在技能X或任务Y中,它比我更好还是更糟?而不是试图理解人工智能正在发展的所有方式,以及这可能对我们的未来意味着什么。
我会尽自己的一份力量,写下人工智能的所有复杂性和怪异性,而不诉诸夸张或好莱坞式的比喻。但我们都需要开始调整我们的心理模型,以便为我们头脑中新的、令人难以置信的机器腾出空间。
来源:
nytimes/2022/08/24/technology/ai-technology-progress.html
责任编辑:邵文
校对:施鋆
,