Высказывания президента Байдена об искусственном интеллекте впечатляют и сбивают с толку, как и сама технология.
Авторы: Карен Хао и Маттео Вонг
Президент США Джо Байден подписал самый масштабный на сегодняшний день набор принципов регулирования искусственного интеллекта в Америке: пространный указ, который предписывает всем видам государственных ведомств обеспечить лидерство Америки в развитии этой технологии и одновременно устранить многочисленные опасности, которые она представляет. Указ прямо предписывает ведомствам устанавливать правила и рекомендации, писать отчеты, создавать финансовые и исследовательские инициативы для ИИ – «самой важной технологии нашего времени», по словам президента.
Масштабы приказа впечатляют, особенно если учесть, что бум генеративных ИИ начался всего год назад. Но многие части документа — а их немало — временами противоречат друг другу, демонстрируя общую путаницу в вопросе о том, каким именно должно быть главное отношение Америки к ИИ: является ли он угрозой национальной безопасности или справедливому обществу? Является ли он геополитическим оружием? Это способ помочь людям?
Администрация Байдена отвечает — «все вышеперечисленное верно», демонстрируя уверенность в том, что скоро эта технология будет повсюду. «Это большое дело» — сказала нам Алондра Нельсон, профессор Института перспективных исследований, ранее занимавшая должность исполняющего обязанности директора Управления по научно-технической политике Белого дома. По словам Нельсон, ИИ станет «таким же вездесущим, как операционные системы в наших мобильных телефонах», а это означает, что его регулирование будет затрагивать «все пространство политики как таковой». Сам масштаб требует двойственности, и администрация Байдена как будто приняла во внимание противоречивые мнения, не определившись с одним подходом.
В одном из разделов распоряжения полностью повторяются тезисы нескольких влиятельных компаний, занимающихся разработкой ИИ, таких как OpenAI и Google, в то время как в других в центре внимания оказываются проблемы работников, уязвимых и недостаточно обеспеченных сообществ, а также групп по защите гражданских прав, наиболее критически настроенных по отношению к Биг Тех. В приказе также четко обозначено, что правительство обеспокоено тем, что ИИ усугубит дезинформацию, нарушения конфиденциальности и авторских прав. Даже прислушиваясь к рекомендациям «Большого ИИ», приказ дополнительно описывает подходы к поддержке небольших разработчиков и исследователей технологии. Кроме того, в указе содержится немало указаний на потенциальные преимущества этой технологии: ИИ, как отмечается в указе, обладает «потенциалом для решения некоторых наиболее сложных проблем общества». Он может стать благом для малого бизнеса и предпринимателей, создать новые категории занятости, разработать новые лекарства, улучшить медицинское обслуживание и многое другое.
Если документ выглядит как объединение работ, написанных совершенно разными группами, то, скорее всего, так оно и есть. Президент и вице-президент проводили встречи с руководителями ИИ-компаний, лидерами в области защиты гражданских прав и защитниками прав потребителей для обсуждения вопросов регулирования этой технологии, а перед запуском ChatGPT в ноябре прошлого года администрация Байдена опубликовала документ Blueprint for an AI Bill of Rights. В этом документе, в частности, содержался призыв к продвижению гражданских прав, расовой справедливости и защите конфиденциальности. Сегодняшний указ цитирует и расширяет это раннее предложение — он напрямую касается продемонстрированной способности ИИ способствовать дискриминации в таких контекстах, как здравоохранение и прием на работу, рисков использования ИИ при вынесении приговоров и в полицейской деятельности, а также других вопросов. Эти вопросы существовали задолго до появления генеративного ИИ — подкатегории искусственного интеллекта, создающей новый — или, по крайней мере, убедительно переделанный — материал на основе обучающих данных, но эти старые программы ИИ будоражат коллективное воображение меньше, чем ChatGPT с его пугающе похожим на человеческий языком.
Таким образом, указ, естественно, в значительной степени ориентирован на сверхмощное и требующее больших вычислительных затрат программное обеспечение, лежащее в основе этих новых технологий. В частности, речь идет о так называемых базовых моделях двойного назначения, которые также называют «пограничными моделями ИИ» — термин, обозначающий будущие поколения технологии с якобы разрушительным потенциалом. Это словосочетание было популяризировано многими компаниями, которые собираются создавать такие модели, и отдельные части указа соответствуют тем нормативным рамкам, которые рекомендовали эти компании. В одном из политических документов, опубликованном летом этого года и частично написанном сотрудниками OpenAI и Google DeepMind, предлагается определять модели «пограничного» ИИ как те, которые облегчают разработку биологического или химического оружия, те, которые способны обойти человеческий контроль «с помощью средств обмана и запутывания», и те, которые обучаются выше порогового уровня вычислительной мощности. В исполнительном приказе используются практически те же формулировки и тот же порог.
Высокопоставленный представитель администрации, выступая перед журналистами, назвал разросшийся характер документа его особенностью, а не недостатком. «Политика в области искусственного интеллекта похожа на десятиборье», — отмечает чиновник. У нас нет возможности выбрать что-то одно, сказать: «Мы будем заниматься только безопасностью», или «Мы будем заниматься только справедливостью», или «Мы будем заниматься только конфиденциальностью». Мы должны делать все эти вещи». В конце концов, этот указ обладает огромной «сигнальной силой» — отмечает Суреш Венкатасубраманиан, профессор компьютерных наук из Университета Брауна, который был соавтором предыдущего «Билля о правах ИИ». «Я могу сказать, что Конгресс обратит на это внимание, штаты обратят на это внимание, губернаторы обратят на это внимание».
У любого, кто ознакомится с указом в поисках руководства, сложится неоднозначное впечатление о технологии, которая имеет примерно столько же возможных применений, сколько книга имеет возможных тем, и, вероятно, также будет неясно, на чем президент решил сосредоточиться или что опустить. В приказе довольно много слов посвящено тому, как различные ведомства должны готовиться к теоретическому воздействию ИИ на химические, биологические, радиологические и ядерные угрозы, причем эта формулировка взята непосредственно из программного документа, поддержанного OpenAI и Google. В отличие от этого, администрация уделяет гораздо меньше внимания использованию ИИ в образовании — масштабному применению технологии, которое уже происходит. В документе признается роль, которую ИИ может сыграть в повышении устойчивости к изменению климата, например, за счет повышения надежности энергосистем и внедрения экологически чистых источников энергии, о чем часто говорят представители промышленности, но при этом ни разу не упоминаются огромные энергетические и водные ресурсы, необходимые для разработки и внедрения крупных моделей ИИ, а также выбросы углерода, которые они производят. В документе также обсуждается возможность использования федеральных ресурсов для поддержки работников, чьи рабочие места могут быть нарушены ИИ, но не упоминаются работники, которые, возможно, эксплуатируются в экономике ИИ: например, люди, которым платят очень мало за то, что они вручную дают обратную связь чат-ботам.
Международная проблематика также занимает важное место в указе. К числу наиболее агрессивных мер, предусмотренных указом, относится поручение министру торговли предложить новые правила, требующие от американских поставщиков облачных услуг, таких как Microsoft и Google, уведомлять правительство, если иностранные физические или юридические лица, пользующиеся их услугами, начинают обучение крупных моделей ИИ, которые могут быть использованы в злонамеренных целях. Приказ также предписывает госсекретарю и министру внутренней безопасности упростить процесс получения виз для талантливых специалистов в области ИИ, а также призывает ряд других ведомств, включая Министерство обороны, подготовить рекомендации по упрощению процесса получения виз для неграждан, обладающих знаниями в области ИИ и желающих работать в национальных лабораториях и получить доступ к секретной информации.
Хотя наблюдение за иностранными организациями — это косвенный намек на жесткую конкуренцию США с Китаем в области развития ИИ и их озабоченность по этому поводу, Китай также является главным источником иностранных специалистов в области ИИ в США. В 2019 году 27% ведущих американских исследователей в области ИИ получили высшее образование в Китае, тогда как 31% получили образование в США, говорится в исследовании Macro Polo, чикагского аналитического центра, изучающего экономику Китая. Иными словами, в документе предлагаются действия против иностранных агентов, разрабатывающих ИИ, и в то же время подчеркивается важность иностранных работников для развития ИИ в США.
Международная направленность указа не случайна: он издается как раз накануне крупного саммита по безопасности ИИ в Великобритании, на котором вице-президент Камала Харрис выступит с докладом о видении администрацией США развития ИИ. В отличие от широкого подхода США или закона ЕС об искусственном интеллекте, Великобритания практически полностью сфокусирована на этих пограничных моделях – «довольно узкая полоса», — сказала нам Нельсон. В отличие от этого, в американском указе рассматривается весь спектр технологий ИИ и автоматизированного принятия решений, а также делается попытка сбалансировать национальную безопасность, справедливость и инновации. По ее словам, США пытаются смоделировать иной подход к миру.
По словам Пола Триоло, младшего партнера по Китаю и ведущего специалиста по технологической политике консалтинговой компании Albright Stonebridge, администрация Байдена, вероятно, также использует этот указ для того, чтобы окончательно доработать свои позиции по политике в области ИИ до того, как выборы 2024 года поглотят Вашингтон и на смену им может прийти новая администрация. В документе предполагается, что большинство ведомств выполнят свои задачи до конца текущего срока. Полученные в результате отчеты и позиции регуляторов могут повлиять на готовящееся в Конгрессе законодательство в области ИИ, на принятие которого, скорее всего, потребуется гораздо больше времени, и упредить возможную администрацию Трампа, которая, если судить по прошлому, может сосредоточить свою политику в области ИИ почти исключительно на глобальной конкурентоспособности Америки.
Тем не менее, учитывая, что с момента выпуска ChatGPT прошло всего 11 месяцев, а его обновление до GPT-4 произошло менее чем через пять месяцев после этого, многие из этих задач и сроков представляются несколько расплывчатыми и отдаленными. Приказ отводит 180 дней министрам обороны и внутренней безопасности на завершение пилотного проекта по кибербезопасности, 270 дней — министру торговли на выдвижение инициативы по созданию руководства в другой области, 365 дней — генеральному прокурору на представление отчета о чем-то другом. Высокопоставленный представитель администрации сообщил журналистам, что недавно созданный Совет по ИИ среди глав ведомств под председательством Брюса Рида, заместителя руководителя аппарата Белого дома, будет следить за тем, чтобы каждое ведомство добивалось стабильного прогресса. Когда пройдет последний срок, возможно, позиция федерального правительства в отношении ИИ выкристаллизуется.
Но, возможно, позиция и политика не могут, да и не должны быть окончательно определены. Как и сам Интернет, искусственный интеллект — это емкая технология, которую можно развивать и внедрять самыми разными способами; Конгресс все еще пытается разобраться в том, как законы об авторском праве и конфиденциальности, а также Первая поправка применимы к существующей уже несколько десятилетий Сети, и каждые несколько лет условия этих нормативных дискуссий, похоже, вновь меняются.
Год назад мало кто мог себе представить, как чат-боты и генераторы изображений изменят основные представления о влиянии Интернета на выборы, образование, труд и работу; всего несколько месяцев назад внедрение искусственного интеллекта в поисковые системы казалось лихорадочным сном. Все это и многое другое в зарождающейся революции ИИ уже началось всерьез. Внутренний конфликт, связанный с различными ценностями и подходами к ИИ и открытостью к ним, возможно, был неизбежен — это результат попытки наметить путь для технологии, когда ни у кого нет надежной карты направления её развития.
Оригинал: The Atlantic