易卜拉欣教授的最新著作借鉴了从计算机科学到社会学和关键种族研究的研究成果,开创了一个跨学科的突破性演示,展示了数字平台和算法如何塑造社会态度和行为。
在数字种族:算法暴力和数字平台易卜拉欣教授探讨了算法如何基于种族定位和描述人,以及数字技术如何实现在线仇恨言论和偏见。她还揭示了算法如何不再仅用于社交媒体和在线购物等数字平台;他们在重要的公共服务中发挥着隐蔽但日益增长的作用,如卫生和社会保健、福利、教育和银行业。
数字技术可能带来的危险有无数个例子——比如臭名昭著的丑闻剑桥分析数据滥用和美国法院风险评估算法中的种族偏见新出现的问题,如自动驾驶汽车更有可能撞上肤色较深的行人和虚拟助理无法理解不同的口音。
易卜拉欣教授强调了数字平台如何揭示和强化根深蒂固的不平等现象的现实例子,例如脸书的算法促成了罗辛亚种族灭绝,估计有25000人在这场种族灭绝中丧生,另有700000人流离失所。大赦国际发现“脸书的算法系统加剧了有害反罗辛亚内容的传播”,该平台未能删除危险帖子,因为它从参与度的增加中获益。
最近,离家更近,“英国政府的A级灾难和U型转变”(2020年)看到了考试监管机构Ofqual制定的一项算法,该算法降低了公立学校学生的等级,提高了私立私立学校的等级,这对社会经济背景较低的年轻人不利。
同样,荷兰语首相马克·鲁特和他的整个内阁辞职2021年,调查显示,26000个无辜家庭被错误指控社会福利欺诈,部分原因是歧视性算法。这导致数万名父母和照料者被荷兰税务机关诬陷为儿童保育福利欺诈,这些人往往是收入较低或属于少数民族社区的人。
触摸她创伤技术的最新研究易卜拉欣教授的新书提出了如何最好地缓和数字平台的问题。由于算法缺乏判断什么可能对人有害所需的人性,这项任务往往落在合同不稳定、薪水低的工人身上,他们被迫查看大量的创伤性内容。易卜拉欣教授认为,内容节制应该被视为一项危险的业务,对雇主进行监管,对雇员给予支持。
评论《数字种族》的出版,易卜拉欣教授说:“数字技术有潜力带来积极的社会变革,但同时也带来了传播和加剧现有不平等的风险。我很高兴终于能够与世界分享这本书,我希望这本书能引发一场关于数字平台的作用及其影响的批判性对话可以有关于平等的。
“随着科技的兴起及其在我们生活中的作用越来越大,确保数字空间不会在我们的社会中复制种族不平等比以往任何时候都更重要。我们必须挑战算法不平等,以遏制歧视、仇恨和暴力,并推动在我们的数字平台中实现更多的包容性和代表性。”
注:本文由院校官方新闻直译,仅供参考,不代表指南者留学态度观点。