两周以前,《经济学人》杂志率先发表了一项研究成果,来自斯坦福大学的研究人员利用交友网站上的照片训练出了一套人脸识别人工智能系统,该系统能通过照片判断一个人的性取向。消息一出,网友们纷纷炸开了锅,各路媒体对其也是褒贬不一。
虽说这项技术并不能直接从照片中判断这人是否是gay,但这项研究戳中了人们对于人工智能最大的担忧,即AI为监测和控制提供了一种新方式,这对边缘人群十分有害。这项发明的作者之一Michal Kosinski博士说,他做这项研究的目的就是为了向人们展示AI的危险,并警告说:“面部识别不仅能够检测出某人的性取向,还会识别出他们的政治观点、犯罪几率甚至是智商。”
许多人担心,这样的技术是否会让“以貌取人”主义盛行。19和20世纪的伪科学、相面术等正是当时“科学种族主义”的燃料,人们披着道德的外衣谴责、孤立、妖魔化自己的同胞,对人类社会产生了巨大的冲击。反对Kosinski的人们指责他的研究与19世纪的种族偏见毫无二致,只不过换成了更高级的方式罢了。而Kosinski教授本人也表示他对自己的研究结果感到恐惧,并且乐意接受大家的指责。在接受The Verge网站采访时他表示:“这是一个充满争议、令人失望的主题,我们对此也感到不安。”
但是,随着AI的发展,伪科学是否悄悄地潜入社会?有些人说机器人只是比我们更了解自己而已,但如果在训练AI的时候掺杂了人类的偏见怎么办?机器人是否会将那些落后的观念重新带回人类社会呢?我们如何能发现这些这种趋势?
AI真的能检测性取向吗?
首先,让我们来看看这次争论的核心,也就是由Kosinski和Yilun Wang合作的这份研究。实际上,这份报告主要在宣传AI系统的准确性,但其中有很多表述错误。论文指出:“单从一张照片上,AI可正确鉴别男同性恋或异性恋的概览为81%,正确判断是女同性恋或异性恋的概览为71%。”但是如果系统提供同一个人的五张照片时,这一概率分别升至91%和83%。
大多数人看完后会认为结论是,这套系统能否正确判断一个男人性取向的概率为81%,但仔细阅读就会发现其中的问题。这项测试的过程是,给AI随机两张照片,一张是同性恋,另一张是异性恋,让AI判断那张看起来更像是同性恋者。而AI最终答对的几率是81%,这才是这个数字的来历。但是仔细想想好像哪里不对,这种测试不就是简单的二选一吗,能答对的几率不应该是50%吗?所以,研究人员声称AI能直接猜中一个人性取向的概率为81%的说法是不严谨的。
马里兰大学的社会学家Phillip Cohen教授曾在博客上批评这项研究,他对The Verge记者说:“人们害怕自己的私生活被暴露。如果你在机场或去到体育馆,检测仪会在扫描人群的时候检测每个人的性取向。不过好在这项研究还无法做到这一点。”
而在论文结尾,研究人员增加了测试数量,让AI系统在1000张照片中挑选谁是同性恋者。结果有70人被选中,这一比例与美国男同性恋所占人口的比例十分相近。但是当研究人员要求选出最有可能是同性恋的前100名时,系统只选对了47个(本应有70个);当被要求选出最有可能的前10名是,系统选对了9个。
所以,如果将此系统应用到大数据中,得到正确结论的可能性较大。不过这样是很危险的。而且该研究的其他部分也说明这项研究存在局限性。
机器看到的和人类看到的有什么不同?
目前尚不清楚这套面部识别系统的测量因素是什么,但是Kosinski和Wang的假设是基于人脸结构的差异,他们认为:脸部特征更女性化的男性,以及男性特征明显的女性有可能是同性恋。但是AI很容易被其他因素,比如面部表情所干扰。
这是有可能的,因为研究人员所选用的照片是从社交网站上下载的。正如奥博林学院社会学教授Greggor Mattson在博客中指出的那样:“为了吸引异性,这些照片本身就带有某种偏见。”他们肯定会符合我们对同性恋者和异性恋者长相的想象。如果一个直男在社交网站上放了一张特别有男子气概的照片,那么他更多地是想让人们认为自己是个直男,而不是他下巴形状和性取向的关系。
为了保证他们的系统只关注面部特征,Kosinski和Wang使用了VGC-Face软件,它可将面部特征转换成数字。这款程序可以减少瞬态特征的影响,即光线、姿势和面部表情。
但是面部识别系统专家Tom White说,VGC-Face实际上非常容易就将上述外部因素计算在内。Tom向The Verge透露,他们用这款软件成功的区分了“平静”和“快乐”两种表情,并对不同姿势和背景的表情也能正确区分。
问题在于,Kosinski和Wang并未公布他们创建的用于训练的AI程序。而且Kosinski也承认他们的研究有漏洞,他说:“还需要更多的研究来证实这一点。但是想要消除所有的干扰因素是很棘手的。”
人的长相与性格的关系
几个世纪以来,人们都认为长相和性格有很大关系。这种说法最早源于希腊,到了19世纪才颇为流行。精通面相的人认为,通过测量某人额头的角度或鼻子的形状,就能判断一个人是否诚实或易于犯罪。去年,中国的研究团队就推出了一款判断某人是否有犯罪倾向的面部识别系统,当时还引起了不小的争议。
但是Kosinski教授认为他们的研究并非单纯地“看脸”,因为他们采用了严谨、科学的方法。论文中引用了许多研究结果,都表明了人们可以通过观察长相来判断某种性格特质(虽然准确度可能不同)。他说:“我相信人的脸部特征与性格绝非有太大的关系,但现实是,这些特征正在说明一些问题,我们无法忽视。虽然面相不是科学,但通过计算机的分析可以得出基本的结论。”
我们已经依靠性别和种族创造出了不同算法,这种工具有好有坏:都是用不好的证据来判断他人。中国的研究成果是一个极端的例子,但绝不是唯一一个。许多初创公司都声称可以使用面部识别发现恐怖分子和恋童癖,还有一些公司能够提供情绪分析的AI软件,对他人进行监控。
人脸识别的未来展望
让我们回到最初的问题:Kosinski和Wang发明的这套AI系统是否会造成对LGBT群体的歧视呢?
这次不会,但其他的系统可就说不准了。
Kosinski和Wang的研究并非无意义,但其结果需要进一步地验证和测试。因为目前我们只能看到在一个交友网站上的自我认为是同性恋的人与异性恋之间的差异,我们并不知道这项结果是否适用于更广泛的群体。
虽然Kosinski表示这项研究是为了警告大家,但他承认这是一个“不可避免的悖论”,因为你必须公开研究过程和方法,同时论文中使用的所有资料都是公开的。深度学习教育网站Fast.ai的研究人员Jeremy Howard认为:“也许许多组织已经做过了类似的研究,只是没有发表出来。”
前面说到,许多公司都开始研发并使用AI识别技术,除此之外,有些政府也将其作为统治手段。在伊朗和沙特阿拉伯等国,同性恋依然将受到死刑的惩罚;在其他很多国家,同性恋者将被监禁并折磨。最近有报道说,车臣建立了同性恋集中营,许多人在里面受到非人的虐待。如果有人自己制作了这种同性恋人工智能识别系统,后果不堪设想。
很明显,Kosinski和Wang的“同性恋雷达系统”存在缺陷,但更重要的是人们需要了解人工智能的局限性,我们要在人工智能开始出现负面作用之前消除它的危险。在消除机器人的偏见之前,我们需要先消除自己心里的偏见。