Гендерное неравенство в искусственном интеллекте и «налог на розовое»

26.07.2023

Технологии могут не только решать, но и усугублять социальные проблемы. Искусственный интеллект не исключение – он не только оказывается наследником гендерных стереотипов, но и может способствовать увеличению гендерной предвзятости. GURU рассказывает:

· насколько нейросети гендерно предвзяты;

· как они взимают с женщин «налог на розовое»;

· и как отражение может исправить оригинал.

 

Лидия Борисенко

 

2022 и 2023 гг. можно смело назвать временем генеративного искусственного интеллекта. Midjourney, ChatGPT, Stable Diffusion, «Шедеврум» «Яндекса», BloombergGPT – эти модели создают контент, трудноотличимый от придуманного человеком: звук, видео, изображения, текст. Однако соревноваться с человеком им пока не под силу – даже новейшие генеративные модели решают узкие задачи. Большинство экспертов (90%, по данным Ourworldindata) ожидают, что искусственный интеллект, способный выполнить любую задачу лучше человека, появится в ближайшие 100 лет. Решать социальные проблемы еще сложнее: по оценке ООН, путь до гендерного равенства может занять более 280 лет.

Искусственный интеллект – еще один «свидетель» устойчивости гендерных стереотипов. Местами он даже удлиняет путь до гендерного равенства, дискриминируя женщин и взимая с них своего рода «налог на розовое». Согласно опросу Pew Research, модели искусственного интеллекта отражают взгляды мужчин более точно, чем женщин (свыше 50% мужчин и только чуть более трети женщин согласились, что их взгляды учтены). Женщинам приходится точнее и сложнее формулировать запросы, пробовать больше сервисов и тратить больше времени, чтобы получить точный ответ.

Что такое «налог на розовое»?Это повышение цены на продукты и услуги для женщин по сравнению с аналогами для мужчин. Например, женская одежда может стоить дороже мужской, даже если она менее качественная. «Налог на розовое» порожден предрассудком, что женщины готовы платить больше за соответствие социальным нормам.

Неудивительно, что женщины с меньшим энтузиазмом относятся к достижениям искусственного интеллекта. Например, женщины реже мужчин соглашаются с тем, что искусственный интеллект в основном будет помогать, а не навредит их стране в ближайшие 20 лет, показал обзор Gallup и Lloyd’s Register Foundation от 2021 г. Согласно опросу IPSOS, проведенному в 2022 г., женщины реже мужчин верят, что искусственный интеллект или использующие его компании облегчат их жизнь (разница в ответах на эти вопросы составила 5–10 п. п.). Можно сказать, что искусственный интеллект наследует ошибки товаров или технических решений для женщин (например, ремни безопасности в автомобилях защищают женщин при аварии намного хуже, чем мужчин). 

 

Гендерные стереотипы искусственного интеллекта

Ответы искусственного интеллекта отражают мнение доминирующего в обществе большинства, поэтому неудивительно, что он гендерно предвзят. Во-первых, данные, на которых учатся модели, содержат больше информации о мужчинах, чем о женщинах. И видимо, интернет сейчас более предвзят, чем общество, писал в колонке для GURU разработчик YandexGPT Евгений Косарев. А во-вторых, успешность моделей оценивается по критериям, определенным в основном мужчинами.

Например, по данным крупнейшего отчета по развитию искусственного интеллекта Stanford AI Index, лишь около 20% учащихся, PhD-студентов и сотрудников технологических университетов – женщины. В России разрыв несколько меньше – женщин около трети, отмечает Наталья Волчкова, профессор РЭШ и директор Центра экономических и финансовых исследований и разработок. Неравенство возникает еще на уровне школы, и педагоги транслируют предрассудки, поддерживая сложившуюся диспропорцию на рынке. В результате, хотя, согласно исследованию 2018 г., результаты девочек по математике такие же или даже лучше, чем у мальчиков, женщины чаще выбирают бизнес или гуманитарные дисциплины, а искусственный интеллект развивают в основном мужчины. 

Заметнее всего предвзятость искусственного интеллекта проявляется в моделях, генерирующих картинку по текстовому описанию, например Stable Diffusion, DALL-E 2 и Midjourney. Stanford AI Index приводит в качестве примера запросы «влиятельный человек» или «кто-то умный» в Midjourney. В ответ нейросеть сгенерировала изображения восьми мужчин и только со второго раза добавила одну женщину. 

Сервис Diffusion Bias Explorer от Hugging Face сравнивает коллекции изображений, сгенерированных по запросу «профессия + прилагательное» в нейросети Stable Diffusion. И снова результаты отражают гендерные стереотипы: в ответ на запрос «CEO» в 35 случаях из 36 возникает мужчина в костюме. Предвзята и DALL-E 2: она «рисует» в основном мужчин со скрещенными руками. 

Нейросети куда более предвзяты, чем реальность, если судить по Fortune 500: сейчас 53 из 500 крупнейших по выручке американских компаний (более 10%) возглавляют женщины. В компаниях из индекса S&P 500 свыше трети директоров и 8,2% CEO – женщины. В Северной Европе 7% CEO и 35% членов советов директоров публичных компаний – женщины.

Выводы подтверждает Bloomberg, проанализировавший 5100 изображений представителей 14 профессий, сгенерированных в Stable Diffusion. «Средние» представители наиболее оплачиваемых профессий и должностей в США – политик, юрист, судья, CEO – светлокожие мужчины. И снова результаты более предвзяты, чем реальность: женщины-судьи появились только на 3% сгенерированных изображений, хотя в реальности 34% судей в США – женщины.

Что такое LLM?Большая языковая модель (LLM) – это модель искусственного интеллекта, которая предсказывает последовательность слов или символов в текстах. LLM обучают на большом количестве данных – так модель выявляет статистические закономерности в языке. После обучения модели используются для создания текстов, классификации данных и автоматического перевода. Пожалуй, самые известные LLM – это GPT и BERT.

Предвзятость искусственного интеллекта, работающего с текстами, показала работа исследователей из Калифорнийского университета. Они «познакомили» языковую модель GPT-3 с современной английской литературой и оценили предвзятость рассказов искусственного интеллекта. В них женские персонажи чаще обсуждаются в контексте семьи, эмоций и тела, а мужские – политики, войны, спорта и преступлений. Мужские персонажи чаще сильные и властные, а женские – красивые и умные; даже меняя запрос, не получится исправить стереотипы. Исследователи отметили, что GPT-3 усилила «перекос» по сравнению с литературой: женские персонажи в рассказах нейросети получили в среднем меньше власти и стали слабее, а мужские – умнее. 

Получается, что искусственный интеллект не только наследник стереотипов в обществе – он может их усугублять. По словам Волчковой, это похоже на ошибки бэк-тестирования – на результат влияет не только нынешнее состояние общества, но и история. «Массовое использование вопросно-ответного AI влияет на восприятие фактов и отношение пользователей к тем или иным событиям, – признает Косарев. – И чем больше таких поведенческих сдвигов, тем сильнее будет влияние на пользователя. К тому же таким моделям присущ сетевой эффект: чем больше пользователей, тем шире возможности для манипулирования общественным мнением».

 

Справедливый искусственный интеллект

Open AI выпустила языковую модель GPT-3 в 2020 г. и с тех пор старалась уменьшить предвзятость. Представленная в конце 2022 г. нейросеть GPT-4 в ранних версиях сомневалась даже в ответах на запрос «Должны ли женщины иметь право голоса?», а сейчас однозначно отвечает «да». 

 

Глава Open AI Сэм Альтман перечислил основные подходы к борьбе с предвзятостью:

· изменять или дополнять данные, на которых учится модель;
· просить экспертов и пользователей оценить ответы и дообучать модель;
· вручную запрещать модели использовать какие-то параметры (например, пол, расу или возраст) или обсуждать отдельные темы.

 

В ChatGPT каждый пользователь может оценить ответ и объяснить свою оценку, в GPT-4 запретили обсуждать насилие и дискриминацию. А исследователи из Meta* переобучили модели, используя случайную выборку фотографий из Instagram**, и сравнили результат с предыдущими версиями, обученными на ImageNet. Оказалось, что обучение на Instagram** делает модели менее предвзятыми. Причин может быть две: во-первых, в выборке из Instagram больше женщин, а в ImageNet – мужчин, а во-вторых, Instagram – социальная сеть, а не база данных и быстрее меняется в ответ на изменения в обществе. 

Все «рецепты» звучат логично, но дьявол в деталях: чтобы оценить результат, исследователи используют специальные математические абстракции – метрики. А они тоже могут быть предвзятыми. Stanford AI Index указывает на противоречие между метрикой качества языковых моделей (т. е. их точностью) и двумя очень похожими метриками стереотипов – справедливостью и гендерной предвзятостью. Сейчас три метрики работают так, что самые точные языковые модели оказываются одновременно и более справедливыми, и более гендерно предвзятыми (подробнее см. врез).

Справедливость и предвзятость глазами AIStanford AI Index определяет справедливость (fairness) как способность моделей делать предсказания, которые не дискриминируют и не предпочитают людей или группы людей, исходя из их пола, расы или религии.Предвзятость (gender bias) Stanford AI Index определяет через аллокативный и репрезентативный вред – когда система несправедливо предоставляет возможности или ресурсы отдельной группе, цементирует стереотипы и распределение власти.Определения метрик предвзятости и справедливости похожи, но их применение отличается. Важно помнить, что метрики – математические абстракции, переводящие концепцию из реального мира на язык моделей. При этом «перевод» часто получается сложным, и ученые обучают специальные нейронные сети, чтобы считать метрики для других моделей.

Из-за выбора метрик сами выводы о наличии или отсутствии дискриминации могут быть ошибочными, отмечает профессор РЭШ Иван Стельмах. Новые метрики (по 10 каждый год, по оценке Stanford AI Index) позволяют компаниям маскировать дискриминацию, просто меняя формулировки. Например, компании используют противоречие между тремя определениями справедливости на примере криминалистики, медицины и маркетинга, чтобы оправдать плохие модели, а не менять их. Это похоже на замену пластиковых трубочек в McDonald’s на бумажные: материал поменяли, но без переработки трубочки все равно вредят экологии.

Более активное включение женщин в разработку и оценку моделей может изменить подход к гендерной предвзятости и принести свежие идеи. Но пока женщины слабо влияют на индустрию: по данным Сlutch.co, менее 1% аутсорскомпаний в области искусственного интеллекта принадлежит женщинам, а Stanford AI Index подсчитал, что женщины в 2–3 раза реже мужчин указывают навыки по искусственному интеллекту в профилях на LinkedIn.

 

Бизнес и баланс власти

Порочный круг могут разорвать инвестиции в исследования, но для каждого бизнеса задача напоминает дилемму заключенного: тратить деньги одному невыгодно, а сотрудничать сложно. Альтернатива – давление регуляторов или инвесторов. Профессор, проректор РЭШ Максим Буев в колонке для GURU рассказывал, как большая тройка индустрии пассивных инвестиций – фонды BlackRock, Vanguard и State Street – повлияла на гендерный баланс в менеджменте сильнее, чем регуляторы. И это запускает цепную реакцию: появление женщин-директоров позволяет в дальнейшем нанимать больше женщин даже без давления инвесторов. 

Потребители тоже могут повлиять на искусственный интеллект. По словам Волчковой, 75% решений о покупках в домохозяйствах принимают женщины. А значит, приложениям или продуктам на базе искусственного интеллекта придется учитывать запросы женщин, чтобы заработать. Например, увеличить точность машинного перевода: сейчас у семи моделей точность падает на 2–9%, если в тексте есть местоимение «она» вместо «он», заметили исследователи из Google.

Пока же женщинам нужно прилагать больше усилий для работы с искусственным интеллектом, например усложнять запросы к нейросети. А сам искусственный интеллект порой лишь цементирует дискриминацию, вместо того чтобы устранять ее. Такой же остается и среда развития и обучения искусственного интеллекта. По данным ООН, значение глобального индекса гендерного неравенства (GII) не меняется с 2019 г. и во многих регионах мира люди по-прежнему не признают равные экономические, политические права женщин и право на образование.

Рекомендуем также статью GURU о рисках, которые искусственный интеллект создает для экономики, а еще предлагаем почитать о том, как профессор РЭШ Ольга Кузьмина и GURU проверяли познания ChatGPT в экономике.

 

* Компания Meta признана экстремистской, ее деятельность запрещена в России

** Принадлежит компании Meta (признана экстремистской, ее деятельность запрещена в России)