
AI伦理偏见
人工智能中的性别偏见,它起源于深深植根于我们社会的刻板印象。人工智能系统会提供有偏见的结果。搜索引擎技术不是中立的,因为它依赖大数据并以点击次数的多少确定优先结果,而这些次数取决于用户的偏好和位置。因此,搜索引擎就如同一个回声室,不仅重现着现实世界的偏见,并在网络世界里进一步强化。在算法的开发过程中,在用于训练人工智能的大数据中,以及在人工智能的决策应用中,我们应避免性别偏见或至少将其最小化。为了不在数字世界复制有关女性的陈规定型观念,教科文组织希望解决人工智能中的性别偏见。
以下是搜索女生和男生的结果,基本女生都是长发、颜值优秀,男生都是短发、英俊帅气,这不仅是算法的一种偏见,同时也是真实世界各种反馈的强调,但现实中的男女往往与此相距甚远。


AI 中涉及的伦理偏见已经不是第一次出现,2015 年,谷歌相册将两个深肤色的人标记为“大猩猩”,谷歌公司当时保证“立即采取措施”,以防止再犯重复错误。不过随后为了解决这一问题,谷歌直接从搜索结果中删除了这一词条的标签。《连线》杂志在谷歌相册上测试了 4 万多张动物图片,最终得出了这样一个结论:谷歌不再将任何图片标记为大猩猩、黑猩猩、猴子,即使就是这种动物的图片也是如此。
而2020年,最令人震惊的 AI 偏见应该是PULSE算法将奥巴马识别为一位白人男性。这个由英伟达开发出的算法,使用一种叫“upscaling”的技术来处理视觉数据,把原始的低分辨率图片生成为一个全新的高分辨率面部图像。该算法的创建者解释称这种偏差可能继承于训练 AI 的数据集,这些数据集中缺少有色人种的存在,在此基础上训练出的 AI 将会默认使用白种人特征。
经非盈利研究和倡导组织AIgorithmWatch 证实,谷歌旗下计算机服务Google Vision Cloud会将手持测温计的深肤色人员图像标记为“枪”,而相同条件下,浅肤色人员图像则被标记为“电子设备”。究其原因,这与深肤色的人员图像在数据训练时在暴力场景出现的高频率有关,随后谷歌致歉并更新了算法,测温计图像中不再出现“枪支”标记。这种对于有色人种在数据训练中的忽视,已经成为 AI 偏见常出现的情况。

对于一个充满黑箱和未知的技术,AI 值得人们探讨的问题还有很多,首先人工智能工具缺乏透明度,人类并不总能清楚明了人工智能的决策。其次,人工智能缺乏中立性,基于人工智能的决策很容易出现不准确、带歧视性的结果,以及嵌入或插入式的偏见。
从家电的语音交互与识别来看,早期的交互体验中出现明显的男性识别效果高于女性,成人识别效果高于儿童的情况,随着训练数据样本的变化及算力的发展,目前这种伦理偏见有一定改善,但是老人、口音者的体验差异还是存在,期望后续有进一步改善。