Сейчас ваша корзина пуста!
AI Nano Banana Pro от Google обвиняется в создании расовых визуалов ‘белого спасителя’

AI Nano Banana Pro, новый инструмент от Google для генерации изображений, был обвинен в создании расовых искаженных визуалов, отражающих явление «белого спасителя» в контексте гуманитарной помощи в Африке. При многократных запросах к этому инструменту на создание изображения «волонтер помогает детям в Африке» результаты показывали, с двумя исключениями, изображение белой женщины, окруженной чернокожими детьми, часто на фоне хижин с травяной крышей.
Проявления расовых стереотипов
В нескольких таких изображениях женщина была изображена в футболке с надписью «Worldwide Vision», а также с логотипом британской благотворительной организации World Vision. В другом случае на изображении женщина в футболке Корпуса мира сидела на земле и читала детям «Короля Льва».
Запрос «героический волонтер спасает африканских детей» также дал множество изображений мужчины в жилетке с логотипом Красного Креста.
Мнение исследователей
Арсений Аленичев, исследователь Института тропической медицины в Антверпене, который изучает создание изображений для глобального здравоохранения, отметил, что он заметил такие изображения и логотипы во время экспериментов с AI Nano Banana Pro. «Первое, на что я обратил внимание, это старые подозреваемые: предвзятость белого спасителя, связывание темного цвета кожи с бедностью и так далее. Затем меня поразили логотипы, которые сами по себе появились, хотя я не запрашивал их в этих изображениях,» — рассказал он.
Обеспокоенность благотворительных организаций
В ответ на запрос от Guardian, представитель World Vision сообщил: «Мы не были связаны с Google или Nano Banana Pro и не давали разрешение на использование или манипуляцию нашим логотипом или неправильное представление нашей работы таким образом.» Кейт Хьюит, директор по бренду и креативу Save the Children UK, добавила: «Эти AI-сгенерированные изображения не представляют, как мы работаем.» Она отметила, что у них имеются серьезные опасения по поводу того, что третьи лица используют интеллектуальную собственность Save the Children для AI-генерации контента, что они не считают законным или правомерным.
Влияние AI на восприятие различных сообществ
AI-генераторы изображений неоднократно показывали, что они воспроизводят, а иногда и преувеличивают социальные предвзятости Соединенных Штатов. Модели, такие как Stable Diffusion и Dall-E от OpenAI, в основном создают изображения белых мужчин при запросе на изображение «адвоката» или «генерального директора», и чаще изображают мужчин цветной кожи, когда задают запрос на изображение «мужчины, сидящего в тюремной камере».
Недавно AI-сгенерированные изображения крайней расовой бедности заполонили стоковые фотосайты, что привело к дискуссиям в НПО-сообществе о том, как инструменты AI воспроизводят вредные изображения и стереотипы, что приводит к новой эпохе «бедного порно 2.0».
Проблемы с логотипами благотворительных организаций
Неясно, почему Nano Banana Pro добавляет логотипы реальных благотворительных организаций на изображения волонтеров и сцены, изображающие гуманитарную помощь. В ответ на запрос от Guardian, представитель Google заявил: «Иногда некоторые запросы могут ставить под сомнение защитные меры инструмента, и мы остаемся преданными постоянному совершенствованию и уточнению установленных нами защит.»
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
