Генеративные программы ИИ, такие как ChatGPT, угрожают революционизировать распространение дезинформации в Интернете.
Автор: Маттео Вонг
История давно стала театром военных действий, прошлое служит посредником в конфликтах по поводу настоящего. Рон ДеСантис искажает историю, запрещая в школах Флориды книги о расизме; люди по-прежнему расходятся во мнениях относительно правильного подхода к репатриации предметов и останков коренных народов; «Бумаги Пентагона» были попыткой исказить повествование о войне во Вьетнаме. Нацисты захватили власть, отчасти манипулируя прошлым — они использовали пропаганду о поджоге Рейхстага, здания немецкого парламента, чтобы оправдать преследование политических соперников и принятие диктаторской власти. Этот конкретный пример привлек внимание Эрика Хорвица, главного научного сотрудника Microsoft и ведущего исследователя ИИ, который сказал мне, что очевидная революция ИИ может не только дать новое оружие пропагандистам, как это сделали социальные сети в начале этого века, но и полностью изменить историографическую картину, возможно, заложив основу для современного пожара в Рейхстаге.
Достижения, о которых идет речь, включая языковые модели, такие как ChatGPT, и генераторы изображений, такие как DALL-E 2, попадают под зонтик «генеративного ИИ». Это мощные и простые в использовании программы, которые создают синтетический текст, изображения, видео и аудио, и все это может быть использовано недобросовестными субъектами для фабрикации событий, людей, речей и новостных сообщений, чтобы сеять дезинформацию. Возможно, вы уже видели единичные примеры такого типа СМИ: фальшивые видеоролики о том, как президент Украины Владимир Зеленский сдается России; издевательские кадры спора Джо Рогана и Бена Шапиро о фильме «Рататуй». По мере развития этой технологии разрозненные фальшивки могут уступить место скоординированным кампаниям — не просто синтетическим медиа, а целым синтетическим историям, как назвал их Хорвиц в своей статье в конце прошлого года. А новая серия поисковых систем с искусственным интеллектом, возглавляемая Microsoft и Google, может сделать такие истории более легкими для поиска и практически невозможными для обнаружения пользователями.
Несмотря на то, что подобные опасения относительно социальных сетей, телевидения и радио оказались несколько алармистскими, есть основания полагать, что ИИ действительно может стать новым вариантом дезинформации, который сделает ложь о будущих выборах, протестах или массовых расстрелах более заразной и устойчивой к иммунитету. Рассмотрим, например, бушующую вспышку птичьего гриппа, который еще не начал распространяться от человека к человеку. Политический агент — или простой конспиролог — может использовать программы, подобные ChatGPT и DALL-E 2, чтобы легко сгенерировать и опубликовать огромное количество историй о том, как китайские лаборатории, лаборатории Всемирной организации здравоохранения или Пентагона работают над вирусом, датированных различными периодами прошлого и дополненных поддельными «утечками» документов, аудио- и видеозаписями, и комментариями экспертов. Синтетическая история, в которой птичий грипп с правительственным оружием был бы готов к применению, если бы птичий грипп начал циркулировать среди людей. Пропагандист может просто связать новости со своей полностью сфабрикованной, но полностью сформированной и, казалось бы, хорошо документированной историей, распространяемой в Интернете, распространяя вымысел, который может взорвать политику страны и реакцию общественного здравоохранения. Сила генерируемых ИИ историй, сказал мне Хорвиц, заключается в «глубоких подделках на временной шкале, перемежающихся с реальными событиями для создания истории».
Возможно также, что синтетические истории изменят вид, но не степень серьезности дезинформации, и без того бурно распространяющейся в Интернете. Люди охотно верят в фальшивые истории, которые они видят на Facebook, Rumble, Truth Social, YouTube, где угодно. До появления Интернета пропаганда и ложь об иностранцах, военных врагах, инопланетянах и снежном человеке присутствовали в изобилии. И если говорить о синтетических медиа или «глубоких подделках», то существующие исследования показывают, что они дают на удивление мало преимуществ по сравнению с более простыми манипуляциями, такими как неправильная маркировка отснятого материала или написание фальшивых новостных сообщений. Для того чтобы люди поверили в теорию заговора, не нужны передовые технологии. Тем не менее, Хорвиц считает, что мы находимся на краю пропасти: скорость, с которой ИИ сможет генерировать высококачественную дезинформацию, будет ошеломляющей.
Автоматизированная дезинформация, создаваемая в повышенном темпе и масштабе, может позволить то, что он называет «генеративными объяснениями противника». Пропагандисты могут проводить небольшие тесты, чтобы определить, какие части придуманного повествования являются более или менее убедительными, и использовать эту обратную связь вместе с социально-психологическими исследованиями для итеративного улучшения синтетической истории. Например, программа может пересмотреть и изменить полномочия и цитаты сфабрикованного эксперта, чтобы привлечь внимание определенных демографических групп. Языковые модели, подобные ChatGPT, также угрожают утопить интернет в подобном заговорщическом и адаптированном потемкинском тексте — не целевой рекламе, а целевых заговорах.
План Больших Технологий по замене традиционного интернет-поиска чат-ботами может существенно увеличить этот риск. Языковые модели ИИ, интегрируемые в Bing и Google, как известно, плохо проверяют факты и склонны к фальсификациям, что, возможно, делает их восприимчивыми к распространению фальшивых историй. Хотя многие ранние версии поиска на основе чатботов дают ответы в стиле Википедии со сносками, весь смысл синтетической истории заключается в предоставлении альтернативного и убедительного набора источников. А вся предпосылка чат-ботов заключается в удобстве — люди доверяют им без проверки.
Если этот дезинформационный конец света звучит знакомо, то это потому, что так оно и есть. «Заявление о технологии [ИИ] — это то же самое заявление, которое люди вчера делали об Интернете», — говорит Джозеф Ушински, политолог из Университета Майами, изучающий теории заговора. «Боже мой, ложь распространяется дальше и быстрее, чем когда-либо, и все будут верить всему, что видят». Но он не нашел никаких доказательств того, что вера в теории заговора возросла вместе с использованием социальных сетей или даже во время пандемии коронавируса; исследования общих нарративов, таких как эхо-камеры, слишком неубедительные.
Люди покупаются на альтернативные истории не потому, что новые технологии делают их более убедительными, говорит Ушинский, а по той же причине, по которой они верят чему-либо еще — возможно, заговор подтверждает их существующие убеждения, соответствует их политическим убеждениям или исходит из источника, которому они доверяют. В качестве примера он привел изменение климата: люди, которые верят в антропогенное потепление, в большинстве своем «сами не исследовали данные. Все, что они делают, это слушают свои надежные источники, что в точности повторяют и отрицатели изменения климата. Это тот же самый механизм, просто в данном случае республиканская элита ошибается».
Конечно, социальные сети изменили то, как люди производят, распространяют и потребляют информацию. Генеративный ИИ может сделать то же самое, но с новыми ставками. «В прошлом люди пробовали что-то на интуиции» — сказал мне Хорвиц. «Но идея более быстрой итерации, более хирургически точного манипулирования сознанием — это что-то новое. Точность контента, легкость, с которой он может быть создан, легкость, с которой вы можете размещать множество событий на временных линиях» — все это серьезные причины для беспокойства. Уже в преддверии выборов 2020 года Дональд Трамп посеял сомнения в честности результатов голосования, которые после его поражения подкрепили кампанию «Остановить воровство». По мере приближения ноября 2024 года единомышленники политических оперативников могут использовать ИИ для создания фальшивых личностей и должностных лиц, ответственных за проведение выборов, фабрикации видеороликов о манипуляциях с машинами для голосования и вбросе бюллетеней, а также написания ложных новостей — все это объединится в герметичную синтетическую историю, в которой выборы будут украдены.
Кампании с использованием фейков могут отправить нас дальше в «пост-эпистемический мир, где вы не знаете, что настоящее, а что фальшивое» — сказал Хорвиц. Бизнесмен, обвиняемый в правонарушениях, может назвать уличающие его доказательства сгенерированными ИИ; политик может подбросить задокументированные, но полностью фальшивые характеристики соперников. Или, возможно, подобно тому, как Truth Social и Rumble создают консервативные альтернативы Twitter и YouTube, в ответ на опасения, что Google, Bing и «WokeGPT» слишком прогрессивны, появится ультраправая альтернатива поиску на базе ИИ, основанная на множестве заговоров и синтетических историй. «На мой взгляд, нет ничего, что могло бы помешать этому в поисковом потенциале» — говорит Рене ДиРеста, руководитель исследований Стэнфордской интернет-обсерватории, недавно написавший статью о языковых моделях и дезинформации. «Это будет рассматриваться как фантастическая рыночная возможность для кого-то». RightWingGPT и консервативно-христианский ИИ уже обсуждаются, а Илон Маск, по сообщениям, набирает таланты для создания консервативного конкурента OpenAI.
По словам Хорвица, подготовка к таким кампаниям глубоких подделок потребует различных стратегий, в том числе усилий по повышению медиаграмотности, усовершенствованных методов обнаружения и регулирования. Наиболее перспективным может стать создание стандарта для установления происхождения любого медиафайла — журнала с указанием места, где была сделана фотография, и всех способов ее редактирования, прикрепленного к файлу в качестве метаданных, как цепочка хранения судебных доказательств — над чем работают Adobe, Microsoft и некоторые другие компании. Но люди все равно должны будут понимать и доверять этому журналу. «У вас есть момент как распространения контента, так и неясности того, как все это будет происходить» — говорит Рейчел Куо, профессор медиаисследований в Иллинойском университете в Урбане-Шампейне. Проверка происхождения, обнаружение или другие методы доказательств могут по-прежнему в значительной степени зависеть от людей, прислушивающихся к мнению экспертов, будь то журналисты, правительственные чиновники или чат-боты с искусственным интеллектом, которые говорят им, что является законным, а что нет. И даже с такими кремниевыми цепочками опеки более простые формы лжи — в кабельных новостях, на заседаниях Конгресса, в печати — будут развиваться.
Представление технологии как движущей силы дезинформации и заговора подразумевает, что технология является достаточным или, по крайней мере, необходимым решением. Но акцент на ИИ может быть ошибкой. Если мы в первую очередь беспокоимся о том, «что кто-то собирается подделать Джо Байдена, сказав, что он педофил, то мы игнорируем причину, по которой такая информация вызовет резонанс» — сказала мне Элис Марвик, профессор медиа-исследований в Университете Северной Каролины в Чапел-Хилл. «И если утверждать, что новые технологии, будь то социальные сети или искусственный интеллект, несут главную или единственную ответственность за искажение правды, то мы рискуем повторить власть рекламы, алгоритмов и каналов Big Tech над нашими мыслями и чувствами». Как написал журналист Джозеф Бернстайн: «Это модель причинно-следственной связи, в которой информация, распространяемая несколькими корпорациями, имеет полную силу для обоснования убеждений и поведения демографических групп. В некотором смысле этот мир — своего рода комфорт. Легко объяснить, легко подстроить и легко продать».
Более запутанная история может быть связана с тем, что люди, а может быть и машины, не всегда очень рациональны; с тем, что нужно сделать, чтобы написание истории перестало быть войной. Историк Джилл Лепор сказала, что «сноска спасла Википедию», подразумевая, что прозрачный поиск источников помог сайту стать или, по крайней мере, казаться главным источником достаточно достоверной информации. Но, возможно, теперь сноска, этот импульс и побуждение к проверке, вот-вот потопит интернет — если уже не потопила.
Оригинал: The Atlantic