摘要
People和Person这两个词本应该是中性的,用来指代个人或群体,并不意味着男性或女性。然而,发表在 Science Advances 杂志上的一项最新研究,从超过 6300 亿个英语单词的语料库中提取的相似性指标,发现这些标签的感知意义偏向男性。简而言之,不管人们用什么词汇来描述普通人,他们往往在精神上默认为“男性”。社会的“个人”概念的男性偏向,表明我们人类对自身的集体看法中存在一种根本性偏见。集体观念不仅反映,而且灌输和强化关于男女的广泛思维方式。因此,使用计算社会科学的方法来研究普遍意义的性别刻板印象对社会发展有重要意义。
研究领域:计算语言学,计算社会科学,NLP,性别偏见
论文题目:
Based on billions of words on the internet, people = men
论文链接:
https://www.science.org/doi/10.1126/sciadv.abm2463
1. 词嵌入技术发现集体概念中的性别偏见自然语言处理技术的进展使得精确测量任意两个词来表示概念的相似程度成为可能,这种语言相似性度量可以提供对语言社区的集体概念(collective concept)的洞察,这些概念反映并加强了大众普遍的思维方式。“个人/人们(person/people)”作为人类社会最重要的集体概念之一 ,构成了几乎所有社会决策和政策制定的基础。因此,对这一集体概念的理解一定程度上表征了我们社会的价值和实践的体系特征,是超越个人并融入更广泛的社会系统和历史传统的思想存在。然而,哲学、社会学和语言学的理论长期以来一直认为,男性被视为“默认”人类个体,存在女性的性别偏差。例如,男性与科学和工作的关系更为密切。
为了验证上述假设,研究人员使用词嵌入技术分析了名为Common Crawl的大规模网络文本数据库。该数据包含29.6亿个网页(包括博客、论坛和政府网站),超过6300亿个英语单词。研究人员通过观察两个单词在上下文文本的相似程度(单词在向量空间中的余弦相似度),来衡量这一集体概念。这种方法的新颖之处在于,分析更具一般性,能揭示隐藏得更深的集体认知偏见。而传统的衡量性别偏见的方法是通过问卷或行为测量个人的刻板印象。相比之下,通过计算集体概念偏向性能更普遍地反映人类社区中个人的信仰,揭示在潜移默化中向下一代灌输和加强对于男性和女性普遍的思维模式。
2. “人”倾向于指男性,女性更容易被刻板化研究人员通过三项研究考察了描述人的一般性词汇,以及相邻形容词和动词的意义,并比较其意义和男性与女性的相似度。在第一项研究比较了描述人的词汇(例如,“个人”)和描述男性的词汇(例如,“他”和“男性”)及描述女性词汇(例如,“她”和“女性”)在意义上的相似性。研究发现,描述人的单词和男性在语义上更加相似,其意思更加类似于男性的单词,而不是女性的单词,而且具有统计学意义上的显著差异。换句话说,“人”这个集体概念更多地与“男人”这个概念重叠,而不是与研究词汇中的“女人”这个概念重叠。
图1. 描述人的一般单词与男性和女性单词的余弦相似度
在第二项研究中,研究小组没有关注人的词汇,而是比较了538个在以前的工作中确定为对人常见描述的特征词,例如外向、勇敢和富有同情心等词汇。之前关于个人对女性和男性的心理刻板印象的研究中,性别刻板印象经常被发现是对称的。 例如,女性被认为具有同情心等公共特征,而不是勇敢等具体特征,而相反男性被认为拥有的具体特征多于公共特征。但性别刻板印象往往是不对称的。“男性”在用法上可能与许多常见的人称特征相似(例如,“勇敢”和“富有同情心”),而“女性”在用法上可能与一组更具体的特征相似(如“富有同情心”而不是“勇敢”)。研究者比较了在过去研究中发现的数百个描述人类的特质词汇和针对女性和男性的同类词汇表,发现“女性”更多地出现在与女性刻板印象的特征词环境,意味着性别刻板印象具有不对称性,女性更容易被标签化。
图2. 描述个性特征的刻板印象词汇和男性及女性的余弦相似度
在第三项研究中,研究人员关注动词的使用情况,具体来说,如果“人”的一般概念与“男人”的概念重叠的程度大于与“女人”的概念重叠的程度,那么描述“人们”做了什么以及对“他们”做了什么的词语(例如,”爱”、”骚扰”),也更有可能在语境意义上与表示男人的词语相似,而不是表示女人的词语。研究者比较了描述“人们”行为的250多个动词(例如,“便利”、“傻笑”和“威胁”)和表示男性的词汇与表示女性的词汇之间的意义相似性,发现男性与所有动词都有关联,而女性与传统意义上的女性相关的动词(例如傻笑)关联更密切。
3. 集体概念偏见的现实启示“人”的集体概念构成了许多社会观念表述和决策制定的基础。因为男人和女人各占一半,在我们所谓的“人”的集体观念中,优先考虑男人,基于这种观念的决策会给女性造成不平等。对此,在写作和决策过程中,要注意避免这样的偏差。
虽然有的读者会觉得前面叙述的是一个显而易见的观念,但经过大数据得出的结论,不仅比基于直觉的更为可靠,还能反映更多的细节。例如关注动词的研究,指出人们认为某些行为更多和女性有关,这对于男性是不是也是一种隐含的歧视呢?而关注形容词的研究,指出人们描述性格时是以男性为标准的,这对女性更容易被刻板化,是否会促使成功女性不得不以男性的方式做事这样自我实现的预言?
Common Crawl 的海量数据可以用于多种目的,例如用这些数据来训练人工智能工具,包括语言翻译网站和聊天机器人。而在使用包含内置偏见的数据集时,很有可能会产生以下恶性循环:人工智能从人类身上学习,然后反作用于人类。这个问题令人担忧,因为它表明,如果我现在打个响指,神奇地摆脱每个人自身的认知偏见,不再把普遍意义上的人看作男人,我们的社会仍然会有这种偏见,因为这种偏见植根于人工智能工具中。因此该研究指出,需要对自然语音模型中的偏见予以纠正。最后,该研究主要是基于英文文本,而基于中文文本库能否得出类似的结论?对比不同类型,如体育、娱乐、社会新闻、经典小说、网络小说等来源的文本,是否会发现某些来源的性别偏见的程度更高?如果使用用户产生内容网站(UGC,诸如微博、知乎)的文本,将男性和女性产生的数据分开训练词向量,或者按不同地区、不同年龄段用户对文本进行分组训练,并分别计算性别偏见的程度,预期是否会存在差异?这些差异反映了哪些社会及文化变迁的一般规律?这些仍待后续研究工作解决。
郭瑞东、刘志航 | 作者
邓一雪 | 编辑
商务合作及投稿转载|swarma@swarma.org◆ ◆ ◆
搜索公众号:集智俱乐部
加入“没有围墙的研究所”
让苹果砸得更猛烈些吧!
,