Плохой хороший искусственный интеллект

26.06.2023

Выход ChatGPT от OpenAI спровоцировал цунами мнений о тех возможностях, которые открывает искусственный интеллект, и тех угрозах, которые он создает, – от массовой безработицы до восстания машин в стиле антиутопий и коллапса демократии. Но в этом потоке заявлений очень немногие выводы подкреплены фактами – в силу новизны области исследований. GURU собрал мнения известных экономистов и проанализировал некоторые свежие работы, авторы которых пытаются оценить влияние развития искусственного интеллекта на:

 - рынок труда;

 - управление компаниями;

 - правосудие;

 - демократию и укрепление автократических режимов. 

А еще мы поинтересовались мнением самого ChatGPT о рисках, которые может создать использование искусственного интеллекта (AI).

 

Анастасия Небольсина

 

«Мы вступили на совершенно неизвестную территорию. Мы способны создавать машины сильнее нас самих. Пока мы контролируем ситуацию. Но что, если мы разработаем машины, которые будут умнее нас?» – задается вопросом крестный отец искусственного интеллекта Джеффри Хинтон. «Апокалипсис AI?» – под таким пугающим заголовком портал Project Syndicate собрал колонки известных экономистов и финансистов.

Мощь искусственного интеллекта действительно заставляет беспокоиться. Более 1000 бизнесменов и экспертов, включая Илона Маска и Стива Возняка, подписали открытое письмо, призвав лаборатории искусственного интеллекта приостановить минимум на полгода обучение систем более мощных, чем GPT-4. Экспертов пугают и политические, и социальные последствия. «Технология угнетения стала дешевле везде и сразу», – пишут Саймон Джонсон и Дарон Аджемоглу из Массачусетского технологического института и Сильвия Бармак из Университета Мичигана, задача защиты прав потребителей, работников, граждан никогда не была более актуальной.

 

Кстати, 30 июня на Просветительских днях РЭШ научный руководитель РЭШ, профессор университета Помпеу Фабра Рубен Ениколопов и профессор РЭШ Иван Стельмах обсудят экономические эффекты искусственного интеллекта. Регистрируйтесь бесплатно по ссылке

 

Технобезработица или обновление рынка?

Страхи, что машины заменят людей, возникают всякий раз, когда совершаются технологические прорывы (см. врез «Уроки истории»). Но разработчики искусственного интеллекта посягнули уже на саму креативность людей. «Искусственный интеллект ни в коем случае не гарантирует, что принесет пользу людям, и мы должны учитывать его негативное влияние на занятость и социальные потрясения, которые он может вызвать», – предупредила первый заместитель директора-распорядителя МВФ Гита Гопинат на лекции, посвященной 300-летию со дня рождения Адама Смита. 

Опасения экспертов растут вместе с мощью искусственного интеллекта, который с выходом ChatGPT от OpenAI стал доступен буквально всем. По подсчетам Goldman Sachs, внедрение искусственного интеллекта может способствовать росту производительности на 1,5 процентного пункта в год в течение 10 лет. От $2,6 трлн до $4,4 трлн в год заработает глобальная экономика на внедрении искусственного интеллекта, подсчитала McKinsey (см. статью Bloomberg). Но эта прибыль будет распределена неравномерно, а рынок труда ждут потрясения – многим придется менять профессию. Примерно две трети профессий в США в той или иной степени могут быть автоматизированы с помощью искусственного интеллекта, оценивают экономисты Goldman Sachs. 

Не стоит этого бояться, призывает Джим О’Нил, бывший председатель Goldman Sachs Asset Management и бывший министр финансов Великобритании: запугивание может принести больше вреда, чем пользы. А вот польза от искусственного интеллекта очевидна: так, способствуя повышению производительности, он может помочь компенсировать негативное влияние старения населения, приводит О’Нил пример. 

 

Уроки историиСчитается, что механизация в XIX в. способствовала дескиллингу, пишут Джереми Атак (Университет Вандербильта), Роберт Марго (Университет Бостона) и Пол Род (Университет Мичигана): квалифицированные мастера были вытеснены оборудованием, а неквалифицированным рабочим осталось подбрасывать уголь в машины и перетаскивать продукцию. Исследование Лоуренса Каца из Гарвардского университета и Роберта Марго показало, что с 1850 по 1910 г. доля квалифицированных синих воротничков снизилась в США на 17 процентных пунктов. Но разделение труда сыграло большую роль в дескиллинге, чем механизация, считают Атак, Марго и Род.

 

Искусственное выравнивание

Многие эксперты опасаются, что из-за автоматизации и массового применения искусственного интеллекта будут вытеснены наименее квалифицированные рабочие, что приведет к росту неравенства. Возможное влияние искусственного интеллекта только изучается, но уже имеющиеся работы доказывают, что его внедрение может приводить и к строго противоположному результату.

Два исследования показали, как менялась производительность таксистов и работников горячей линии. Профессор Университета Токио Киого Каназава и соавторы выяснили, что переход на автоматическое создание маршрутов с учетом предсказания спроса сократил время простоя менее эффективных таксистов, в результате разница в производительности более и менее опытных водителей уменьшилась на 14%. Похожие результаты дало и исследование работы операторов горячих линий – использование генеративных моделей позволяет перенимать опыт новым работникам, тем самым улучшая их показатели. Таким образом, влияние AI на неравенство зависит от того, как распределяются выгоды от автоматизации

А что говорят исследования о потенциальной массовой безработице из-за развития искусственного интеллекта? По оценкам экспертов BofA Global Research, к 2030 г. может быть сокращено 2 млрд рабочих мест. Влияние AI может затронуть любую отрасль, использующую текстовые данные, указывают они, – колл-центры, работу юристов, подготовку документов, страхование, здравоохранение и т. д., – но это означает скорее изменение рабочих мест и рост их производительности. Большинство рабочих мест и отраслей промышленности лишь частично подвержены автоматизации и с большей вероятностью будут дополнены, а не заменены, считают и эксперты Goldman Sachs.

Меняется структура вакансий. Аджемоглу с соавторами показал, что с 2010 г. в США значительно растет количество связанных с искусственным интеллектом вакансий на предприятиях, где применение новых технологий наиболее вероятно. А вот количество остальных вакансий падает. Авторы не обнаружили влияния на зарплаты. Его может быть сложно измерить: поскольку на данном этапе искусственный интеллект заменяет труд лишь в части задач, поэтому нет серьезных изменений в рыночных зарплатах. 

Изменение структуры вакансий выявила и работа Татьяны Бабиной в соавторстве из Колумбийского университета: в фирмах, активнее инвестирующих в искусственный интеллект, больше вакансий на нижних и средних позициях и в целом такие фирмы склонны скорее нанимать более образованных сотрудников с техническими специализациями. Будет расти премия за социальный интеллект, креативность и способность решать сложные проблемы, ждут эксперты BofA Global Research. 

Аджемоглу и Паскуаль Рестрепо (Бостонский университет) различают «полезный» и «вредный» искусственный интеллект. С одной стороны, искусственный интеллект может заменять человека и тот становится не нужен. С другой – он создает новые задачи, решая которые человек может повышать свою производительность.

Исторически так и происходило: одни рабочие места умирают, другие рождаются. Исследование профессора Массачусетского технологического института Дэвида Отора со соавторами показало, что 60% работников занято сегодня в профессиях, которых не существовало в 1940 г. Это означает, что более 85% роста занятости за последние 80 лет объясняется созданием новых рабочих мест за счет технологий, пишут экономисты Goldman Sachs. 

Но искусственный интеллект способен изменить этот сценарий. Возможно, он может просто заменить рабочие места людей, не создавая для них новой, более продуктивной работы, предупреждает Гопинат. Аджемоглу и Рестрепо тоже считают, что недавние технологические изменения ведут к стагнации спроса на труд, росту неравенства и даже тормозят рост производительности (о ней слушайте подкаст «Экономика на слух»), это и есть «вредный» AI. 

 

Что думает о себе искусственный интеллект? GURU поинтересовался мнением ChatGPT о том, как развитие искусственного интеллекта влияет на рынок труда. Чат-бот констатировал, что автоматизация рутинных и повторяющихся задач может привести к сокращению некоторых рабочих мест. Затем ChatGPT привел примеры влияния: появление новых рабочих мест. Развитие искусственного интеллекта создает новые возможности и требует специализированных навыков, например, в области машинного обучения, анализа данных и робототехники; изменение требований к навыкам работников. В некоторых случаях – там, где рутинные задачи автоматизируются, – требуются скорее навыки, связанные с творчеством, аналитикой, принятием решений и умением работать с технологиями AI. Гибкость, адаптивность и способность к обучению становятся все более важными; сотрудничество искусственного интеллекта и людей. Во многих случаях он не заменяет полностью человека, а становится инструментом для решения сложных задач. Такое сотрудничество становится все более распространенным, особенно в областях, требующих комплексного анализа данных, прогнозирования и принятия решений.  Затем GURU попросил ChatGPT количественно оценить влияние искусственного интеллекта на рынок труда. Он признал, что это сложный вопрос, ответ на который зависит от множества факторов, включая скорость распространения технологий, специфику отраслей и регионов, регулирование и социально-экономические условия. Одни прогнозы, написал чат-бот, предполагают значительные потери рабочих мест в определенных секторах, другие указывают на создание новых рабочих мест и возможности для переквалификации.   Например, исследование Организации экономического сотрудничества и развития (ОЭСР) в 2018 г. предполагало, что около 14% рабочих мест в странах ОЭСР подвержено высокому риску автоматизации. В то же время, говорилось в этом исследовании, AI создаст новые рабочие места и повысит производительность, что может компенсировать некоторые потери. Чат-бот также сослался на отчет Всемирного экономического форума, в котором прогнозировалось, что развитие искусственного интеллекта создаст новые рабочие места, особенно в сфере разработки, управления данными и цифровых технологий. Работы, требующие решения рутинных задач, такие как некоторые виды производства и низовая административная работа, могут быть подвержены большему риску автоматизации. Работы, требующие творческого мышления, межличностных навыков и принятия решений, могут быть более устойчивыми к автоматизации. О том, как GURU с помощью профессора РЭШ Ольги Кузьминой проверял познания ChatGPT в экономике, читайте здесь.

 

Союз двух интеллектов 

Еще один вопрос – насколько искусственный интеллект способен помочь природному в принятии решений. Оказывается, он может и мешать – во всяком случае, пока люди не привыкнут к нему. Профессор Университета Торонто Аяй Агравал с соавторами показывает, что внедрение AI может способствовать замене стратегий риск-менеджмента, включающих автоматические правила поведения, на принятие решения в зависимости от конкретной ситуации (предсказать которую помогает AI). Из-за этого координация сотрудников может усложниться. Однако, когда внутренние процессы поменяются, отдача от внедрения искусственного интеллекта возрастает.

Профессор Университета Торонто Джоуа Ганс анализирует внедрение AI на двух типах рынка – совершенной конкуренции и монополии. При совершенной конкуренции Ганс ожидает повсеместного увеличения эффективности фирм. Он показывает, что использование AI для предсказания спроса увеличивает эластичность предложения и может как вести, так и не вести к росту равновесной цены (спрос равен предложению) в зависимости от технологии производства. При этом внедрение предсказательных технологий частью фирм может создавать как положительные, так и отрицательные экстерналии для других участников рынка.

Анализируя долгосрочные эффекты внедрения AI, Ганс заключает, что цены падают, а благосостояние потребителей растет в условиях конкурентного рынка. На монопольном рынке ситуация обстоит иначе.

Попытки фирм повысить производительность с помощью AI порождают этические вопросы. «Корпорации уже используют методы наблюдения, усовершенствованные искусственным интеллектом, чтобы следить за каждым шагом своих сотрудников <…> По оценкам консалтинговой компании Gartner, доля крупных работодателей, использующих цифровые инструменты для слежки за своими работниками, удвоилась с начала пандемии COVID-19, достигнув 60%, ожидается, что в течение трех лет она достигнет 70% <…> мы должны найти правильный баланс между этими преимуществами и конфиденциальностью», – пишут Джонсон, Аджемоглу и Бармак.

 

Искусственная прибавка к доходностиАндреа Айсфельдт из Калифорнийского университета в Лос-Анджелесе с соавторами создала индекс, показывающий, как на фирму влияет развитие генеративного искусственного интеллекта в зависимости, например, от индустрии. Далее авторы оценили, как менялась стоимость компаний в зависимости от влияния на нее искусственного интеллекта после выхода ChatGPT. Оказалось, что ежедневная доходность более подверженных влиянию AI компаний была на 0,4% выше, чем у компаний, которые слабее подвержены его влиянию. 

 

Учитель, врач и судья в одном лице?

Перейдем к сферам, где нет задачи извлекать прибыли или она стоит не так остро, – образованию, здравоохранению и судебной системе. Как относиться к использованию чат-бота при написании работ – как к плагиату или как к использованию новых возможностей? Мнения могут расходиться, но то, что ChatGPT полезен в образовательных и исследовательских целях, оспорить сложно. Например, Антон Коринек, профессор Университета Виргинии, собрал 25 ситуаций, в которых ChatGPT может помочь исследователю: генерация идей, написание кода, вычитка текста и др

Нет однозначного мнения и об использовании искусственного интеллекта в судебной системе и здравоохранении. Ведь мы не знаем, как алгоритм принимает решения, и вряд ли люди захотят дать ему право распоряжаться жизнью или свободой человека. Однако некоторые исследования говорят о том, что AI может быть неплохим помощником. Джон Кляйнберг, профессор Тишского университета, с соавторами, изучив решения судей об освобождении под залог, показал, что алгоритм машинного обучения не только справляется с ролью судьи, но и оказывается менее пристрастным.

Фактически судьи выполняют задачу предсказания – если отпустить обвиняемого, явится ли он в суд, не совершит ли преступление. Авторы исследования подсчитали, что использование алгоритма может привести к сокращению преступности на 24,7% при том же количестве обвинительных приговоров. Сокращение рецидива наблюдается для всех категорий преступлений. Эксперты также документируют снижение расовой предвзятости при применении машинного обучения.

Так почему бы не отдать решения алгоритму вместо судей? Дело в том, что помимо уже упомянутой проблемы «черного ящика» алгоритмы обучаются на данных о прошлых решениях, а они тоже могут приниматься под влиянием предвзятости судей, в том числе гендерной или расовой. Поэтому использование алгоритмов может воспроизводить социальную несправедливость, а не бороться с ней

Если в судебной системе AI пока не используется (хотя есть такие инициативы), то в медицине это происходит все чаще и чаще, начиная от диагностирования болезней и заканчивая помощью в разработке вакцин. Можно выделить три области применения AI в медицине: административная работа, диагностика и лечение. Как правило, первая сфера не регулируется так, как вторая и третья. В них использование AI сильно зарегулировано, что приводит к торможению развития технологий и их применения. При такой регуляторной неопределенности бизнес рискует принять на себя «издержки первопроходца», что может негативно сказываться на стимулах к инновациям.

 

Власть машины?

Инструменты контроля, которые AI дает власти, заставляют вспомнить самые мрачные антиутопии писателей XX в. и вызывают опасения, что его применение приведет к ограничению свободы. «Выживет ли демократия в поликризис?» – задается вопросом Сорос. 

Один из каналов негативного влияния – AI используется в рекомендательных системах, которые, подстраиваясь под вкусы пользователя, могут способствовать поляризации в обществе, усиливая эффект эхо-камер (см. об этом статью в «Словаре GURU»). Другой канал – возможности устройств «подслушивать» нас и «подсматривать» за нами для распознавания речи, и изображения становятся инструментом слежки для государства и корпораций.

Расширение возможностей правительств и корпораций в области наблюдения «технически приводит к «повышению производительности», усиливая способность властей заставлять людей делать то, что они должны. Для компании это означает выполнение работ на том уровне производительности, который их руководство считает наивысшим . Для правительства это означает обеспечение соблюдения закона или требований тех, кто находится у власти. К сожалению, тысячелетний опыт показал, что повышение производительности не обязательно приводит к улучшению общего благосостояния», пишут Джонсон, Аджемоглу и Бармак

История учит, что прежде экстрактивные политические институты (это показывали, например, работы Аджемоглу и Джеймса Робинсона) вели к снижению экономического роста, что препятствовало развитию технологий. Но повторяет ли развитие AI прошлый опыт? Кажется, нет – например, лидером в развитии искусственного интеллекта становится Китай. На его примере и использующихся в стране технологий распознавания лиц профессор Массачусетского технологического института Мартин Бераджа с соавторами показывает, что автократический режим и технологии искусственного интеллекта могут взаимно укреплять друг друга. Более совершенные технологии распознавания лиц позволяют государству лучше контролировать население и подавлять протесты, что укрепляет власть авторитарного аппарата.

«Государство получает неимоверные возможности для политического манипулирования и контроля. Самый яркий пример – происходящее в Китае. Система социальных кредитов означает, что про вас все известно и вас могут отрезать от многих услуг, если у вас недостаточно высокий социальный рейтинг. Это пугающая картина – еще и потому не совсем понятно, как с этим бороться <…> Это может привести к тому печальному исходу, о котором писал нобелевский лауреат по экономике Жан Тироль, – к цифровой антиутопии (Digital Dystopia)», – рассуждал о влиянии цифровых платформ научный руководитель, а тогда ректор РЭШ Рубен Ениколопов в подкасте «Экономка на слух» (можно также почитать интервью с ним). По его мнению, только сочетание двух факторов – нежелания нести экономические потери при таком усилении государства и сопротивляющегося гражданского общества – может остановить эту цифровую антиутопию.

GURU спросил и мнение ChatGPT, способствует ли искусственный интеллект усилению недемократических режимов.Он снова ответил, что влияние может быть как положительным, так и отрицательным в зависимости от способа его использования и среды, предложив перейти к регулированию использования AI (его ответ см. во врезе). 

 

Мнение AI: как он может помочь тоталитаризму Вот некоторые факторы, которые могут влиять на связь между AI и недемократическими режимами, перечислил чат-бот. 1) Недемократические режимы могут использовать AI и технологии обработки данных для создания систем массового наблюдения и контроля за населением, в том числе с применением систем распознавания лиц и анализа данных. Такие системы могут подавлять свободу и приводить к нарушениям прав человека. 2) AI может быть использован для создания и распространения дезинформации и фейковых новостей, что может усилить манипулирование общественным мнением. Алгоритмы машинного обучения могут быть настроены на усиление определенных точек зрения или подавление критических мнений, что подрывает свободу информации и слова. 3) Некоторые недемократические режимы могут использовать AI для усиления репрессивных мер (например, с помощью систем наблюдения) и подавления диссидентов. В демократических же обществах AI может использоваться для защиты прав человека и приватности, а также для повышения эффективности государственных услуг. Разработка этических и правовых рамок использования AI в политических системах позволит использовать его для поддержки демократических ценностей и принципов. Таким образом, подытожил ChatGPT, влияние AI на недемократические режимы зависит от того, как он используется и контролируется. Регулирование и прозрачность в использовании AI могут сыграть важную роль в предотвращении злоупотреблений и сохранении демократических ценностей.

Именно к регулированию и призывают многие эксперты. Сегодня рынок компонентов, необходимых для разработки инструментов искусственного интеллекта, очень концентрирован, констатировала Гопинат, лишь горстка крупных корпораций может обладать достаточной информационной мощью для разработки высококлассных моделей в будущем: «Одной «невидимой руки» может быть недостаточно для обеспечения широких выгод обществу».

Законопроект о регулировании искусственного интеллекта уже готовится в ЕС (например, он запрещает составление социального рейтинга, ограничивает использование AI в правосудии и здравоохранении, для распознавания лиц). С необходимостью сделать это согласился и Сэм Альтман, глава OpenAI, разработавшей ChatGPT. «Нам понадобятся ограждения и высокие стандарты регулирования, чтобы эта последняя волна инноваций не вызвала социальный, политический и экономический хаос», – пишет О’Нил.

Но для того чтобы страны не продолжили гонку вооружения искусственным интеллектом, может потребоваться глобальное регулирование наподобие регулирования применения оружия. К сожалению, оно недостижимо, поскольку «в мире господствует конфликт между двумя системами управления, которые диаметрально противоположны друг другу. У них радикально разные взгляды на то, что необходимо регулировать и почему», скептичен Сорос. Он называет эти две системы управления открытыми и закрытыми обществами: в открытом обществе роль государства заключается в защите свободы личности, в закрытом – роль личности заключается в служении интересам правителей. Закрытым обществам искусственный интеллект помогает и представляет смертельную угрозу для открытых обществ, пишет он. «Китай вряд ли присоединится к усилиям по ограничению неограниченного использования средств наблюдения. Он не только систематически усиливает внутреннее наблюдение для подавления инакомыслия и мониторинга социального поведения, он также экспортирует свои технологии наблюдения другим странам», – отмечают Джонсон, Аджемоглу и Бармак. Деспотичные авторитарные режимы вряд ли пойдут на сотрудничество, демократиям мира следует начать готовиться к жесткой экономической игре, предупреждают они.