刘文洁:从“女司机”看AI与偏见

仍有固有观念存留在我们的语言习惯中,并在下一次信息传播中加深曾经的偏见。

前几天打开新闻网页,好几个“女司机”肇事的新闻标题闯入眼帘。也许是职业病使然,我下意识认为本应字字珠玑的标题特意提及性别信息,一定与事故成因有关,但读完正文后却发现两者毫不相关。

这不禁让我讶然,标题讲究简洁有力,力求减少无谓信息。若交通事故没涉及情杀、骚扰等有关性别的情节,强调男女是一种信息冗余,并不符合打题原则。

也许有人说:“我就想知道肇事者是男是女。”但若司机是男性,标题特意指出“男司机”的情况明显较少,一般会直接用“司机”。在这一语境下,“女司机”并非区别于“男司机”,而是直接与“司机”剥离,俨然成了一个被边缘的他者,即第二性(The Second Sex)。这类表达也会进一步加深对女司机的刻板印象。

实际上,现在早已不是谈女司机色变的时代,中美英等多国数据早已证明,女司机事故率甚至低于男性。但仍有固有观念存留在我们的语言习惯中,并在下一次信息传播中加深曾经的偏见。

当然,这可能也有人工智能(AI)的手笔。上到路透社等国内外新闻媒体机构,下至我们常用的社交媒体,近年都开发使用AI生成标题、关键词等功能。但我们喂养给AI的大量语言资料,本身就容易隐藏各种不易察觉的固有观念。中国上观新闻做过一次数据分析,在2016年有关交通事故的报道中,提及女司机的标题数量约为提及男司机的11倍。但中国司法大数据研究院有关2016年至2019年交通肇事罪的报告显示,男司机万人发案率其实是女司机的8.8倍。AI吃下这些新闻资料后,自然也会认为“女司机”是更应该强调的肇事者。

可悲的是,我们为AI输入的偏见也会像回旋镖一样打在自己身上。英国伦敦大学学院(UCL)研究指出,人类和AI系统的偏见会形成类似滚雪球的反馈循环,不断放大最初的微小偏见,最终导致使用AI的人有更多偏见,比如低估女性的工作表现。

这种偏见并非只存在于性别之上,而是充斥国籍、种族等方方面面。彭博社的AI图像生成测试创建出5000多张图像,呈现出一个由白人男性CEO统治的世界,黑皮肤女性总以翻煎汉堡肉饼为生。AI语言模型还会用伪科学或伪历史来印证这些刻板印象。这些AI生成图像和内容,也常常未经审核就流传到社交媒体中,被算法打包成为信息茧房的原料。

但当我们吐槽AI语言加深偏见时,也须意识到人类的语言系统其实比AI更复杂。若说AI还可以通过系统调整和人类把关来完善算法语言,那无意识的习惯用语及偏见,会在无形中潜移默化地改变我们的思维。每一字、每一词在脱口而出的同时,也在塑造我们的认知,“女司机”只是其中一例罢了。

迷失在爆炸般的信息碎片中,被真的假的好的坏的词包围,你我一不小心就可能成为一叶障目的盲眼人。若想着干脆沉沦在这良莠不齐的碎片飓风中,不谈对错与是非,你会发现这些碎片的尖角总有一天会对向你。也许这时,我们才会想到:“女司机”可能是你,也可能是我,是每一种可能被误读的处境。

(作者是《联合早报》多媒体编辑)

您查看的内容可能不完整,部分内容和推荐被拦截!请对本站关闭广告拦截和阅读模式,或使用自带浏览器后恢复正常。