技术——至少我们目前的技术,并不是一个简单的性别中立的工具。
文|橙雨伞公益
最近,一款名叫Lost life的游戏引起了众怒。
网友们的气愤不无道理,这款所谓的“2D模拟养成游戏”,却无论从剧情还是语音上,都包含着大量的儿童色情内容。
完完全全是第一视角的恋童癖游戏!
我们说,游戏是把双刃剑。
在这里,这句话并不是“玩物丧志”和“玩物怡情”之争,而是回到游戏本身:
有的游戏能帮助你识别PUA、抵制家暴;而有的游戏却行走在犯罪边缘,对儿童造成赤裸裸的威胁!
同样是“双刃剑”的,还有这些游戏所赖以生存的科技。
你也许想不到,科技,在帮助我们实现更好的生活的同时,也实实在在地让女性的处境更为艰难。
技术如何服务于性别压迫?
还记得换脸软件ZAO引发的热潮与恐慌吗?
△“你ZAO吗?你在换脸,别人在想要你的脸”
从刷爆朋友圈到被全民抵制,ZAO的安全隐患让无数用户真切感体会到了威胁:
任何在网上留下面部信息的女性,都有可能成为人脸识别技术侵犯的对象。
可能侵犯你的,不再仅仅是现实生活中的熟人,网络上任何一个素未谋面的陌生人,都有机会对着你的照片想入非非!
图/《机械姬》
而ZAO并不是孤例,它大有前世所在。
比如火遍外网的软件Deepfake,就可以通过换脸技术来把黄色视频中的女性变成任何人。
只要一张照片,就可以零成本享受盖尔·加朵的“色情表演”。
还比如,今年6月开发出的Deepnude软件,能够借助神经网络技术来一键“脱下”女性身上的衣服,同样引发了颇多争议。
从这些例子中,你能清楚地看见科技是如何置女性于险境的。
此外,科技助长性别压迫,还有许多不同的目的和形式,我们不妨来回顾几个经典案例。
2019年2月,美国参议院要求苹果和谷歌下架应用“Absher”。
这款应用由沙特政府出台,可以用于监测该国女性的出行情况,包括出国旅行的次数、旅行持续的时间,以及何时从何处机场出发,甚至可以随时取消对这些女性的出行许可。
这样的软件,不就是戴在沙特妇女脚上的电子镣铐吗?
同年5月,“原谅宝”的开发者宣布,他们的app在半年内已经成功识别了十万多“从事不可描述行业的小姐姐”,为广大“老实人”完成了初步过滤。
△“原谅宝:一个让人无所遁形的神器”
借助人脸识别来“起底”女性,并对她们进行荡妇羞辱,原谅宝实现了对女性的精神控制,从道德的制高点上让她们无地自容。
此外,苹果的siri、微软的Cortana等智能语音助手则提供了另一种隐性的性别压迫。
这些虚拟助手都被设计成温柔耐心的女性形象,甚至在被问及一些性骚扰的话题时,也只会给出顺从的回答。
比如,当用户对语音助手说“你是个荡妇”时:
SIri会作出“如果我能,我会脸红”等回答;
Alexa的回答是“谢谢你的反馈”;
Contana会进行网络搜索;
谷歌语音助手则会说“对不起,我不明白”。
这些虚拟角色在无形中为男性提供了一种情绪安抚、欲望填补的服务,也巩固了“女性应当为男性提供情感劳动”的性别偏见。
当然,还有数不胜数的针孔摄像机偷拍事件,威胁着女性的隐私和人身安全。
谁知道未来,那些藏在黑暗中的红点会进化成什么样呢?
所有这些技术,都致力于让男性对女性的控制和侮辱变得易如反掌。
在技术开发的帮助下,性别暴力仿佛乘上了直通车,可以方便直接地把触角伸到它想要的任何地方。
技术是性别中立的吗?
即便科技所造成的性别压迫已经成为一个事实,但依然有人会为技术做这样一种辩护:
技术是一个中性工具,它只是被别有用心的人用在了性别压迫上;坏的是企图控制女性的人,而技术本身是无辜的。
就像美国步枪协会常用的口号那样:枪不杀人,人杀人。
然而这种说法是合理的吗?并不。
一个基本的现实状况是:整个技术发展史都是一个男性主导的历史,在这种情况下发展起来的技术,本身就具有很强的男性气质(控制、支配)。
技术——至少我们目前的技术,并不是一个简单的性别中立的工具。
女性在科学、技术、工程等研发领域中一直遭受着系统性歧视,这些领域倾向于将女性视为能力较弱、兴趣较低的研究人员,认为女性并不适合这些行业,因为科技本身就是男性的竞技场。
联合国秘书长安东尼奥·古特雷斯(Antonio Guterres)表示,女性在全球的研发工作中所占比例不到30%。
德国学者K.H. S rensen则指出,即便在挪威这样在女性问题上非常进步的国家中,女性科学家和工程师所占的比例也很小,可能连十分之一都不到。
图/《隐藏人物》
科研过程中,女性的缺失,导致研发出来的技术成果往往会忽略女性使用者的感受,忽略技术对女性群体的潜在影响。
试想,如果研发人员都是男性,他们能对女性需求和体验感同身受吗?能自发地为改善女性利益做什么吗?
一个最明显的例子在医药研发上。
《神经科学与科学》杂志的一项研究显示,2009 年,在神经科学研究中,实验室雄性哺乳动物的数量是雌性的 5.5 倍。
而在生理结构上,男女有很大的差别,因此也就导致试验的结果更适用于男性。
△在实验动物电击测试里,第一次电击后,
会“乱窜”的小白鼠(darters)在性别上有很大差别
不仅动物实验,在医学临床中,“药物公司也更青睐用男性进行药物测试,因为男性没有像女性那样每月波动的荷尔蒙周期,选择男性进行测试更简单。”
但是,男性和女性的身体对于药物副作用的反应是很不相同的。这些研发出来的药物,往往忽视女性身体的特殊性,对女性的身体伤害也就更大。
在美国1997-2000年间被强制下架的10种药物中,有8种对女性身体健康的威胁更大。
图/The New YorkTimes
更可怕还在后面,性别偏见显然影响了技术的中立,而技术,却已经自发地去实践这份偏见了。
2018年10月10日,路透社报道,亚马逊的机器学习专家表示,亚马逊设计的 AI 招聘算法中暗含了对女性求职者的偏见。
在读取到带有“women's(女性、女子)”的相关词时,算法会降低简历的权重;
而对于简历上求职者提交的自我描述文案,算法也会更多地向“执行”(executed)、“攻占”(captured)等在男性求职者简历中的高频词汇倾斜。
此外,一些图像识别AI,则往往将女性与厨房、购物等特定环境或行为联系在一起。
如果说,AI真的是未来发展的大势,那么世界上的所有女性,该如何对抗这份不掺杂“私人情感”的、“中立”的性别偏见?
“走向一种女性化技术?”
总的来说,技术背后的性别歧视是全方位的:
不仅在人员选拔上,更体现在研发过程、产品应用的方方面面。
既然技术不是性别中立的,而是负载着巨大的男性价值和色彩,那么,我们有可能拥有一种“女性化技术”(feminized technology)吗?
对此,德国学者K.H. S rensen给出的回答是,建立一种女性化技术在未来是可能的,但必须首先突破当下的限制,例如人员配置的壁垒。
让足够多的女性参与到科研过程中来,让女性的“关怀价值”发声,才能改变技术研发的思维和方向。
技术,是汹涌迈进的潮水。
而女性,需要去开垦、去拓宽新的河道,才能让它福泽整个群体。
这片属于女性的大地,别让它枯竭啊。
P.S. 本文观点仅代表特约作者个人观点,部分图片来源网络。
参见穆旼. “苹果谷歌变帮凶!这个沙特APP害百万女性被监视”,发表于橙雨伞公众号,2019-05-05
参见余一文.” 对性骚扰顺从的siri们:虚拟女性在巩固性别偏见?”,发表于澎湃思想市场公众号,2019-09-03
参见王贝宁、顾金涛. “倾听她们说:科学界最不可缺少的风采”,发表于知识分子公众号,2018-02-13
Knut H. S rensen (1992), 'Towards a Feminized Technology? GenderedValues in the Construction of Technology',Social Studies of Science, 22(1), 5-31
https://new.qq.com/omn/20190715/20190715A0E2EJ00.html
http://news.ifeng.com/gundong/detail_2012_11/10/19010129_0.shtml
参见啖先且.” 实验室里的性别不平等:缺的不只是女性研究者!”,发表于橙雨伞公众号,2017-09-12
作者
脸脸
不入流的平权思想关注者