自2018年以来,推特(Twitter)已使用显著性演算法来裁剪预览图像。有些用户表示,该演算法存在性别和种族偏见,我们已经看到了一些例子,这些例子显示出对白种人的偏爱。
为了调查用户所说的是否属实,推特进行了研究,发现在黑人和白人个体的比较中,有利于女性的均等差异为8%,以及有利于白人的均等差异为4%。
专门比较黑人和白人女性时,有利于白人女性的均等性也有7%的差异。而在比较黑人和白人男性时,白人男性有2%的差异。
关于推特倾向不适当地裁剪女性照片(例如在女性的胸部或腿部周围)的指控,该研究发现带有偏见的证据;在每100张图片中,他们发现它只裁剪头部以外的位置的照片,共有3张图像;当它没有裁剪头部,它通常会侧重在非身体的部分,例如运动球衣上的数字。
总体数据显示,该演算法的偏差不如预期的那样;推特已决定弃用自动裁剪功能,而选用基于机器学习的演算法;该公司表示,并非推特的所有内容都适合使用演算法,最好由人去决定如何裁剪图片。
为了减轻这个问题,推特推出处理照片的新方法,包括完整显示适用于iOS和Android的标准长宽比图像。该功能能让用户查看预览图,以便他们在发布之前,能知道这些图片发布到推特后会是什么样子。
推特也感谢用户的回馈,他们致力于提供更多的透明度;使用通过机器学习做出的演算法,会导致一些潜在危害,他们正在努力了解这件事。
Vox发布了着重在自动化种族主义的视频,其中包括针对推特裁剪演算法的实验。你可以观赏以下视频来了解更多。