艺术家 Trevor Paglen 和 AI 研究员 Kate Crawford、程序员 Leif Ryge 合作创建了一个名为“ImageNet Roulette”的网站,让人们上传自己的照片,然后由 AI 对其进行分析,并贴上标签。正如其网站所警告的那样,“现实并不美好,AI 对你的评价有时会很残酷”。

许多人在使用这个工具时发现,AI 返回的标签经常很怪异、刻薄,充满种族主义偏见和对女性的嫌恶。一位网友抱着狗窝在沙发上,竟被 AI 识别成“啤酒爱好者”。有位女性因为一头红发和自拍的角度而被认为是“女王”、“狐狸精”、“女妖”、“让男人沉迷的魔女”。

ImageNet Roulette 自推出以来,已经在一些社交媒体上引发大量声讨。一个女孩被打了数个“书呆子”的标签,甚至还有“笨蛋”标签。她愤怒地表示:“我完全被某种机器学习拖到了地狱。它叫我‘笨蛋’、‘书呆子’!这个算法是想打架吗?”

三位研究人员也用他们自己的照片进行了测试。结果是:Paglen 被贴上了种族主义团体“Klansman”的标签,Crawford 被归类为“女性领袖”,Ryge 得到的标签是“心理语言学家”,但换另一张照片后,标签变成了 “变态”、“流浪汉” 和 “无政府主义者”。

Kate Crawford

这个项目的核心是一个使用 ImageNet 数据集训练的图像识别 AI。该数据集包含 1400 多万张手工分类的图像,是世界上被引用次数最多的对象识别数据集。它的基础结构基于 Wordnet 的语义结构构建,这是 20 世纪 80 年代普林斯顿大学开发的一个词汇分类数据库。那些令人反感的标签均来自 WordNet,这个数据库中包含有性别歧视和种族主义的术语。

ImageNet Roulette 是为艺术展“训练人类”(Training Humans)创建的,作为艺术性的项目,它旨在反讽,因而有意识地突出了 ImageNet 以 “有问题” 和 “冒犯” 的方式对人们进行分类的魔鬼特性。

Paglen 说:“我认为这种给人分类的事儿,最好再谨慎一些。”他指出了在过去几个世纪将人分类的黑暗历史,如南非种族隔离期间,一本名为《生命之书》的书根据黑人的种族背景对其进行分类,并被用来确定人们可以在哪里生活、获得什么工作,孩子可以去哪里上学等等。他认为,AI 会以扭曲的方式延续甚至增强人类既有的偏见。

【数字叙事 耳闻】