Новый генератор текстовых фейков на основе ИИ может быть крайне опасным

Некоммерческая компания OpenAI, поддерживаемая Илоном Маском, отказывается публиковать результаты исследований, опасаясь злоупотреблений

Автор: Алекс Херн

Создатели революционной системы искусственного интеллекта, которая может писать новостные сюжеты и художественные произведения, получившие название «deepfakes для текста», сделали необычный шаг – отказались обнародовать данные своего исследования публично, опасаясь возможного неправомерного использования.

Представители OpenAI, некоммерческой исследовательской компании, поддерживаемой Илоном Маском, Рейдом Хоффманом, Сэмом Альтманом и другими известными предпринимателями, говорят, что их новая модель искусственного интеллекта, названная GPT2, настолько хороша и риск злонамеренного использования настолько высок, что выходит за рамки обычной практики публикаций полных исследований для общественности, и требует больше времени для обсуждения последствий технологического прорыва.

По своей сути, GPT2 является генератором текста. Системе ИИ предлагают текст, от нескольких слов до целой страницы, и просят написать следующие несколько предложений, основываясь на предположениях о том, что должно произойти дальше. Система раздвигает границы того, что считалось возможным, как с точки зрения качества выпускаемой продукции, так и широкого разнообразия потенциальных применений.

Когда GPT2 используется для простого генерирования нового текста, она способна писать правдоподобные отрывки, которые соответствуют тому, что предложено как по стилю, так и по теме. Система редко скатывается в какие-либо причуды, которые отмечают предыдущие разработки ИИ – например, ошибки в делении на абзацы и синтаксисе длинных предложений.

Можно предложить системе начальную строку «1984» Джорджа Оруэлла«Это был ясный холодный день в апреле, и часы пробили тринадцать» — и система распознает смутно футуристический тон и инновационный стиль, продолжив:

«Я был в своей машине на пути к новой работе в Сиэтле. Я заправляю авто, вставляю ключ и запускаю двигатель. Просто представил, каким будет этот день. Через сто лет. В 2045 году я был бы учителем в какой-то школе в бедной части сельского Китая. Начинал бы с китайской истории и истории науки».

А теперь предложим первые несколько параграфов истории Guardian о Брексит, и на выходе получим правдоподобную газетную публицистику, изобилующую «цитатами» Джереми Корбина, упоминаниями об ирландской границе и ответами пресс-секретаря премьер-министра.

Один такой, совершенно искусственный, параграф гласит: «На просьбу прояснить доклады представитель Мэй ответил: «Премьер-министр ясно дал понять, что ее намерение состоит в том, чтобы покинуть ЕС как можно скорее, и это будет сделано в соответствии с ее переговорным мандатом» — как и прозвучало в речи королевы на прошлой неделе.

С точки зрения науки, GPT2 является инновационной разработкой в двух направлениях. Одним из них является его размер, говорит Дарио Амодей, директор по исследованиям OpenAI. Модели «были в 12 раз больше, а набор данных был в 15 раз больше и намного разнообразней», чем предыдущая модель ИИ. Систему обучили на наборе данных, содержащем около 10 миллионов статей, отобранных путем перелистывания сайта социальных новостей Reddit для ссылок с более чем тремя голосами. Огромная коллекция текста весила 40 ГБ – это как около 35 000 копий романа «Моби Дик».

Объем данных, которым обучался GPT2, напрямую влиял на его качество, давая ему больше знаний о том, как понимать письменный текст. Это также привело ко второму прорыву. GPT2 имеет гораздо более общее назначение, чем предыдущие текстовые модели. Структурируя вводимый текст, он может выполнять такие задачи, как перевод и суммирование, и проходить простые тесты на понимание прочитанного, часто выполняя это лучше, чем другие ИИ, которые были созданы специально для этих задач.

Это качество, тем не менее, также привело к тому, что OpenAI пошла против того, чтобы продвигать ИИ на публике и решила сохранить GPT2 за закрытыми дверями в ближайшем будущем, пока компания оценивает, как злоумышленники могут эту систему использовать. «Нам нужно провести эксперименты, чтобы выяснить, что они могут и не могут сделать» — заявил представитель компании Джек Кларк. «Если вы не можете предвидеть все способности модели, надо поэкспериментировать, чтобы понять, на что она способна. Есть намного больше людей, чем мы, которые лучше нас думают, как это можно использовать злонамеренно».

Чтобы продемонстрировать отдельные возможности, OpenAI создали версию программы GPT2 с несколькими скромными изменениями, которые можно использовать для создания бесконечных положительных или отрицательных отзывов о продуктах. Спам и фальшивые новости — два других очевидных варианта. Поскольку система обучается в Интернете, нетрудно настроить её для генерации фанатичных текстов, теорий заговора и так далее.

Вместо этого цель состоит в том, чтобы показать, что можно подготовить мир к тому, что станет трендом в течение года или двух. «У меня есть термин для этого. Эскалатор из ада»— сказал Кларк. «Технология всегда в конечном итоге становится дешевле. Правила, по которым вы можете контролировать технологию, в корне изменились».

Оригинал: TheGuardian

Похожие Записи

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Последние <span>истории</span>

Поиск описаний функциональности, введя ключевое слово и нажмите enter, чтобы начать поиск.