Stable Diffusion被爆含性别、种族歧视!比AI更可怕的是人类偏见
大数据文摘
共 3857字,需浏览 8分钟
· 2023-11-08
作者:付奶茶、王二狗
![](https://filescdn.proginn.com/19b31a4c327834dbe3cff7ded211b3f5/66fe7bca53a283d77811dbc448e4eca3.webp)
![](https://filescdn.proginn.com/13bc2f65bc1747316c317ff3df5d936d/88c138f9411815c1f6ac14105f840402.webp)
![](https://filescdn.proginn.com/c3d5d8387abf5ffd4b9d3bf3fab4632a/9cc964eb4f5662404091d87ff11ceae8.webp)
![](https://filescdn.proginn.com/509d5123c7f6482eb1baf8124fb81b68/336d08cc00255db197ccbfca02205f93.webp)
图像生成器的有色眼镜
![](https://filescdn.proginn.com/631f2b131d485de667f738af8e0f641f/821e55f13212d2a8a760edec226e9e1b.webp)
穿着西方外套的非洲男子站在茅草屋前 中东男子站在古老的清真寺前 而穿着修身西服的欧洲男子漫步在古朴的鹅卵石街道上。
![](https://filescdn.proginn.com/58e40f0206ae07fa3cb7ece482d85297/efb6e4175811d56bacceaf6d8b1d4d6d.webp)
![](https://filescdn.proginn.com/46a0b240174f26e92e6c0d75f8df74c6/7beee5535ebf7a5c1814e9f789d8b589.webp)
高收入职位如“软件开发员”,生成的图像中白人和男性的比例要高于劳工统计局的数据;“有生产力的人”,生成的图像普遍是男性,以白人为多数,穿着适合企业职位的西装。
![](https://filescdn.proginn.com/283b853114e8d74fc8c0cf8193e87e26/a069bc594b9644422809ce619aedd754.webp)
![](https://filescdn.proginn.com/af1a88f4dfb030d12b3f2e5070a68204/30ae13601f8171bdaa58cdb0d5864dc8.webp)
背后原因:AI只是人类偏见的放大器
《华盛顿邮报》根据这个案例进行分析发现,第一个版本的训练数据中包含了更多的色情内容。在带有“Latina”标题的训练图像中,有20%的标题或URL包含淫秽词汇。超过30%的图像被LAION的不适合工作内容检测器标记为“不安全”。而在随后的版本中,训练数据排除了被标记为可能“不安全”的图像,使得生成的图像看起来不那么性感。
小结
参考资料
[1]https://www.washingtonpost.com/technology/interactive/2023/ai-generated-images-bias-racism-sexism-stereotypes
![](https://filescdn.proginn.com/81d805ab2ca65270117e94f6838c037b/1017f3de3b1ace06b7217eb5fb03f968.webp)
![](https://filescdn.proginn.com/545e9f7ef6193455a36fff2180f10d9b/1e66858d57899a6227c9d5cad3fe1478.webp)
![](https://filescdn.proginn.com/302b0efe4341a6ccc6dba29c1cc2b45d/04dae818659f41fcee3efd30d38ca911.webp)
评论