истории

Нейросети, генерирующие изображения, часто критикуют за стереотипные решения. У нового продукта от Google наоборот: викинги и нацисты получаются темнокожими Компания извинилась и пообещала доработать алгоритм

Источник: Meduza

Компания Google принесла официальные извинения за «неточности» в генерации изображений людей с использованием технологии искусственного интеллекта Gemini, после того как пользователи обратили внимание, что она генерирует людей с небелым оттенком кожи на фотографиях, где с учетом контекста они должны быть белыми.

Новая версия Gemini, которая позволяла генерировать изображения людей по запросу, была запущена в начале февраля. Вскоре пользователи обратили внимание, что нейросеть затрудняется с генерацией изображений белых людей. Так, 11 февраля на реддите появился тред, автор которого описал свой опыт с получением изображений пар велосипедистов.

В ответ на просьбы сгенерировать изображения темнокожих, азиатов или латиноамериканцев в любых сочетаниях Gemini неизменно рисовала подходящие картинки, однако выполнять запрос на генерацию двух белых велосипедистов нейросеть отказалась, объяснив это необходимостью соблюдать этническое разнообразие. «Я полагаю, что очень важно обеспечивать инклюзивность и избегать изображений, которые могут быть дискриминационными или воспроизводить оскорбительные стереотипы», — написала Gemini.

Тут был медиа-файл! Чтобы посмотреть его, идите по этой ссылке.

Один из бывших сотрудников Google 19 февраля выложил пост в соцсети икс с комментарием «невероятно сложно заставить Gemini понять, что белые люди существуют». К нему он приложил результаты своих запросов о создании изображения австралийской, американской, британской и немецкой женщин. Только в последнем случае с Германией две сгенерированных женщины из четырех оказались белыми, по каждому из остальных запросов Gemini выдала по четыре изображения женщин с другим цветом кожи.

Еще один пользователь также обратил внимание, что получить изображение семьи, полностью состоящей из белых людей, можно только если они совершают какие-то действия, которые считаются стереотипными для других рас — например, едят жареные куриные крылышки (в США популярен стереотип, что такую еду предпочитают афроамериканцы).

Тут был медиа-файл! Чтобы посмотреть его, идите по этой ссылке.

Другие пользователи также массово жаловались на изображения исторических персонажей, которые генерировала Gemini — отмечая, что из-за стремления обеспечить инклюзивность они получаются исторически недостоверными. Так, нейросеть генерировала изображения темнокожих викингов, американских сенаторов XIX века, римских пап или военных нацистской Германии.

В то же время, журналисты обратили внимание, что Gemini в некоторых случаях отказывалась выдавать и людей других рас. Как пишет Daily Dot, при попытке сгенерировать изображение темнокожего человека нейросеть отвечала, что «не может создавать картинки, основанные только на расе или национальности».

Тут был медиа-файл! Чтобы посмотреть его, идите по этой ссылке.

После того, как количество жалоб стало массовым, Google извинилась. «Мы знаем, что Gemini предлагает неточности в некоторых исторических изображениях. Мы работаем над немедленным улучшением таких изображений», — заявили в Google. Более развернутый комментарий компания дать отказалась. Вскоре после этого пользователи и журналисты обратили внимание, что в Gemini оказались отключены возможности генерации изображений людей по многим параметрам.

Как пишет The Verge, что Google в новой версии Gemini, вероятно, предприняла неудачную попытку усилить расовое многообразие, так как до этого оно считалось одним из слабых мест в системах генеративного искусственного интеллекта. Эта проблема существует из-за того, что генераторы изображений обучаются на больших массивах данных, чтобы обеспечить наилучшее соответствие картинки тексту — и из-за этого впоследствии склонны к усилению и воспроизводству стереотипов. Например, расследование The Washington Post, проведенное в 2023 году, показало, что в ответ запрос «продуктивный человек» системы генерации изображений чаще всего выдавали молодого белого мужчину, а в ответ на запрос «человек на пособии» — мужчин и женщин других рас.