
BuzzFeed проанализировал 3000 изображений ИИ из Midjourney, Dall-E, Stable Diffusion и других, чтобы увидеть, как генераторы ИИ визуализируют разные страны и культуры.
Результаты исследования предоставили непреднамеренно яркий пример предвзятости и стереотипов, пронизывающих изображения, созданные недавней волной генеративных систем искусственного интеллекта.
Предвзятость возникает во многих алгоритмах ИИ: от анализа пола и расы до результатов поиска систем распознавания лиц, которые хуже работают с темными лицами.
Анализ Bloomberg показал, что на изображениях, связанных с названиями высокооплачиваемых должностей, изображены люди со светлым оттенком кожи, а в результатах большинства профессиональных должностей преобладают мужчины.