同性之间的特殊关系是什么(长相决定性取向)(1)

AI星球(微信IDai_xingqiu)】9月9日报道 (编译:小白)

根据最新研究,人工智能可以基于人们脸部照片准确猜测出他们的性取向,这表明机器人可能比人类更擅长“发现同性恋者”。

斯坦福大学的研究发现,计算机算法可以正确区分出男同性恋者和直男,准确率高达81%,而对于女同性恋者和正常女性,则为74%。这一发现引起了性取向的生物学起源问题,面部识别技术的道德问题,以及这种软件侵犯人们隐私或被滥用于反对LGBT目的的可能性。

这一研究发表于《人格与社会心理学杂志》上,并首次由《经济学人》报道,该研究中测试的机器智能,则是基于男性和女性公开发布在美国某一约会网站的面部照片,样本数量超过3.5万张。研究人员Michal Kosinski和Yilun Wang使用“深度神经网络”从图像中提取特征。

研究发现,同性恋男女往往具有“性别非典型”特性,表情和“装扮风格”,本质上就是男同性恋者外貌更女性化,反之亦然。数据同时还发现了一个特定的趋势,比如男同性恋者比直男拥有更狭窄的下巴,长鼻子和大额头。相比直女,女同性恋者的下巴更宽大,额头较小。

人类的判断结果显然与算法的准确率相去甚远,大体上对男性的性取向判断准确率只有61%,而女性只有54%。每当软件检查一个人的五张照片时,准确率会更高——男性91%,女性83%。作者写道,广义上讲,这意味着“算法面部解读比人类大脑可以感知和解释更多关于性取向的信息。”

文中指出,研究结果为“性取向源于先天的特定激素暴露”这一理论提供了“强有力的支持”。也就是说,同性恋是天生的,与周围人格格不入并不是人们自己所能控制的。机器算法对于女性同性恋者的低准确率同时也佐证了“女性性取向更加易变”的观点。

虽然研究结果在性别和性取向方面具有明确的界限——然而有色人种并没有纳入到研究范围,同时也没有考虑到变性人和双性恋者,即便如此,AI带来的影响仍十分巨大且令人震惊。监狱社交媒体网站和政府数据库中存储有数十亿张的人类面部照片,研究人员认为,公共数据可能会不经个人同意而直接被用于检测人们的性取向。

当配偶怀疑自己被骗婚时,他/她很可能会使用这一技术来检测对方的性取向,或者青少年使用该算法来分析自己或同伴的性取向,这些都将在意料之中。更可怕的是,很有可能,坚持检举LGBT人群的政府可以对目标人口使用这项技术。考虑到它可能会引起不当的应用,构建这类软件并公开之本身便具有争议。

但是研究的作者表示,技术已经存在,其能力应该被公众知晓,这样政府和公司才能够主动考虑隐私风险以及对保障和法规的需求。

“这当然很令人不安。就像任何新工具一样,如果陷入错误的人之手,它可以被用于邪恶的目的,”多伦多大学心理学副教授Nick Rule说,“如果你能够根据他们的外貌对他们进行分析归类,进而识别他们并向之伸以罪恶之后,想想都很可怕。”

但Rule依然认为开发和测试这项技术很有必要:“作者们所做的一件事就是让人们知道这项技术究竟有多可怕。如今我们已经知晓,接下来该做的就是思考如何保护我们自己。”

根据斯坦福大学发言人的回应,Kosinski暂不方便接受采访。Kosinski教授以在心理测试分析方面的研究工作而闻名,包括使用Facebook的数据来归纳个人性格。特朗普的活动和英国退欧支持者都对目标选民采用了类似的工具,引起了人们对在竞选中利用个人数据的担忧。

在斯坦福的这项研究中,作者们还指出,人工智能可用于探索面部特征与其他一系列现象之间的联系,比如政治观点、心理状况或个性。

这种类型的研究进一步引发了类似于科幻电影“少数派报告”中所描绘的可怕场景的担忧。在影片中,仅因为有犯罪可能性,人们就会被捕入狱。

“只要有足够多的数据,AI可以告诉你关于任何人的一切,”面部识别公司Kairos的首席执行官Brian Brackeen说道,“问题是作为一个社会,我们需要知道吗?”

Brackeen称赞斯坦福在性取向方面的数据“准确率高的惊人”,同时他也表示,随着机器学习越来越普遍,越来越先进,我们需要极大地关注隐私并开发工具来防止机器学习被滥用。

Rule担心,基于机器对人类面部的解读,AI很有可能会不断地被用于歧视人类,他说:“我们所有人都应该对此保持高度警惕。”

本文来自猎云网,如若转载,请注明出处:lieyunwang/archives/361701

,