The Guardian: наука без теории — наше будущее?

Означает ли появление машинного обучения, что классическая методология из гипотезы, измерения и эксперимента отжила свой век?

Автор: Лаура Спинни

Исаак Ньютон, по легенде, открыл свой второй закон после того, как ему на голову упало яблоко. После долгих экспериментов и анализа данных он понял, что существует фундаментальная взаимосвязь между силой, массой и ускорением. Он сформулировал теорию, описывающую эту взаимосвязь, которую можно выразить в виде уравнения F=ma, и использовал ее для предсказания поведения других объектов, помимо яблок. Его гипотезы оказались верными (хотя и не всегда достаточно точными для тех, кто экспериментировал позже).

Напротив, сегодня наука всё меньше полагается на эксперимент. Инструменты машинного обучения Facebook предсказывают ваши предпочтения лучше, чем любой психолог. AlphaFold, программа, созданная компанией DeepMind, сделала самые точные прогнозы структуры белков на основе содержащихся в них аминокислот. Обе программы не рассказывают нам о том, как они пришли к своему выводу: почему вы предпочитаете ту или иную информацию; почему именно эта последовательность создает такую структуру.

Оказалось, что люди испытывают глубокий дискомфорт от науки без теории.

Вы не можете поднять занавес и заглянуть в глубь механизма. Он не предлагает никакого объяснения, никакого набора правил для преобразования одного в другое — никакой теории, одним словом. Он просто работает и делает это хорошо. Мы ежедневно наблюдаем социальные последствия предсказаний Facebook. AlphaFold еще не успел оказать свое влияние, но многие уверены, что он изменит медицину.

Где-то между Ньютоном и Марком Цукербергом теория отошла на второй план. В 2008 году Крис Андерсон, тогдашний главный редактор журнала Wired, предсказал ее гибель. По его словам, накопилось так много данных, и компьютеры уже настолько лучше нас сумели находить взаимосвязи в них, что наши теории стали выглядеть тем, что они есть — чрезмерно упрощенными представлениями о реальности. Вскоре старый научный метод — гипотеза, предсказание, проверка — будет отправлен на свалку истории. Мы перестанем искать причины вещей и будем довольствоваться корреляциями.

Оглядываясь назад, мы можем сказать, что то, что видел Андерсон, — правда. Сложность, которую нам открыло это богатство данных, не может быть охвачена теорией в традиционном понимании. «Мы уже неспособны даже написать теории, которые будут близки к описанию результата» — говорит нейробиолог Питер Даян, директор Института биологической кибернетики имени Макса Планка в Тюбингене, Германия. «Мы даже не знаем, как они будут выглядеть».

Но предсказание Андерсона о конце теории, похоже, было преждевременным — или, возможно, его тезис сам по себе был чрезмерным упрощением. Есть несколько причин, из-за которых теория отказывается умирать, несмотря на успехи таких свободных от теории предсказательных механизмов, как Facebook и AlphaFold. Все они поучительны, поскольку заставляют нас задаться вопросом: каков наилучший способ получения знаний и куда дальше двигаться науке?

Первая причина заключается в том, что мы поняли, что искусственный интеллект (ИИ), особенно форма машинного обучения под названием нейронные сети, которые обучаются на основе данных без необходимости получения явных инструкций, могут ошибаться. Подумайте о предрассудках, которые были зафиксированы в поисковых системах Google и инструментах найма Amazon.

Вторая причина заключается в том, что люди испытывают глубокий дискомфорт от науки без теории. Нам не нравится иметь дело с «черным ящиком» — мы хотим знать, почему происходит то или иное событие, принято то или иное решение.

И в-третьих, возможно, существует еще множество теорий традиционного типа — то есть доступных для понимания человеком — которые полезно объясняют многое, но еще не раскрыты.

Таким образом, теория еще не умерла, но она меняется — возможно, до неузнаваемости. «Теории, которые имеют смысл при наличии огромного количества данных, выглядят совсем иначе, чем те, которые имеют смысл при наличии небольшого количества», — говорит Том Гриффитс, психолог из Принстонского университета.

Гриффитс использует нейронные сети для совершенствования существующих теорий в своей области — принятии решений человеком. Популярной теорией того, как люди принимают решения, когда речь идет об экономическом риске, является теория перспектив, сформулированная поведенческими экономистами Дэниелом Канеманом и Амосом Тверски в 1970-х годах (впоследствии она принесла Канеману Нобелевскую премию). Ее суть заключается в том, что люди по большей части, но не всегда, рациональны.

В журнале Science в июне прошлого года группа Гриффитса описала, как они обучили нейронную сеть на обширном наборе данных решений, принятых людьми в 10 000 рискованных сценариях выбора, а затем сравнили, насколько точно она предсказала дальнейшие решения по отношению к теории перспектив. Они обнаружили, что теория перспектив работает довольно хорошо, но нейронная сеть показала себя с лучшей стороны, выявив, где теория дала сбой, то есть, где предположения теории не оправдались.

По словам Гриффитса, эти контрпримеры были очень информативны, потому что они выявили больше сложностей, которые существуют в реальной жизни. Например, люди постоянно взвешивают вероятности на основе поступающей информации, как это описывает теория перспектив. Но когда существует слишком много конкурирующих вероятностей, мозг может перейти к другой стратегии — например, руководствоваться правилом большого пальца (эмпирическим правилом — прим.ред.), а правило большого пальца биржевого брокера может отличаться от правила подростка, торгующего биткоинами, поскольку оно основано на разном опыте.

«Мы, по сути, используем систему машинного обучения для выявления тех случаев, когда мы видим что-то, что не соответствует нашей теории», — говорит Гриффитс. Чем больше набор данных, тем больше несоответствий узнает ИИ. Конечным результатом является не теория в традиционном смысле — точное утверждение о том, как люди принимают решения, а набор утверждений, на которые накладываются определенные ограничения. Можно представить это как ветвящееся дерево правил типа «если… то», которое трудно описать математически, не говоря уже о словах.

То, что открыли психологи из Принстона, пока еще можно объяснить на основе существующих теорий. Но по мере того, как они будут открывать все более сложные вещи, это будет становиться все менее объяснимым — логической кульминацией этого процесса станут свободные от теории предсказательные механизмы, воплощенные в Facebook или AlphaFold.

Некоторых ученых это устраивает, они даже стремятся к этому. Когда пионер программного обеспечения для распознавания голоса Фредерик Джелинек сказал: «Каждый раз, когда я увольняю лингвиста, производительность распознавателя речи повышается», он имел в виду, что теория сдерживает прогресс — и это было в 1980-х годах.

Или возьмем структуры белков. Функция белка во многом определяется его структурой, поэтому, если вы хотите разработать лекарство, блокирующее или усиливающее действие данного белка, вам необходимо знать его структуру. AlphaFold был обучен на структурах, полученных экспериментально, с помощью таких методов, как рентгеновская кристаллография, и на данный момент его прогнозы считаются более надежными для белков, по которым есть экспериментальные данные, чем для тех, по которым их нет. Но его надежность при этом постоянно повышается, говорит Джанет Торнтон, бывший директор Европейского института биоинформатики EMBL (EMBL-EBI) в Кембридже, и не отсутствие теории остановит разработчиков лекарств от его использования. «То, что делает AlphaFold — это тоже открытие» — говорит она, — «и это только улучшит наше понимание жизни и терапевтических средств».

Другим явно не по душе то, куда движется наука. Критики отмечают, например, что нейронные сети могут давать ложные корреляции, особенно если наборы данных, на которых они обучаются, малы. А все наборы данных необъективны, потому что ученые не собирают данные равномерно или нейтрально, а всегда имеют в виду определенные гипотезы или предположения — которые, например, пагубно отразились на ИИ Google и Amazon. Как объясняет философ Сабина Леонелли из Эксетерского университета: «Ландшафт данных, который мы используем, невероятно искажен».

Но хотя эти проблемы, безусловно, существуют, Даян не считает их непреодолимыми. Он отмечает, что люди тоже предвзяты, и, в отличие от искусственного интеллекта, «их очень трудно опросить или исправить». В конечном итоге, если теория дает менее надежные прогнозы, чем ИИ, будет трудно утверждать, что машина более предвзята.

Более сложным препятствием на пути новой науки может стать наша человеческая потребность объяснять мир — говорить в терминах причины и следствия. В 2019 году неврологи Бингни Брунтон и Майкл Бейлер из Университета Вашингтона в Сиэтле написали, что эта потребность в интерпретации может помешать ученым сделать новые выводы о мозге, такие, которые появляются только на основе больших массивов данных. Если мы хотим, чтобы эти знания воплотились в полезные вещи, такие как лекарства и устройства, — пишут они, — «необходимо, чтобы вычислительные модели давали такие знания, которые были бы понятны врачам, конечным пользователям и промышленникам и вызывали у них доверие».

«Объяснимый ИИ», в котором рассматривается вопрос о том, как преодолеть разрыв в интерпретируемости, стал актуальной темой. Но этот разрыв будет только увеличиваться, и вместо этого мы можем столкнуться с компромиссом: от какой предсказуемости мы готовы отказаться в пользу интерпретируемости?

Сумит Чопра, ученый в области ИИ, занимающийся вопросами применения машинного обучения в здравоохранении в Нью-Йоркском университете, приводит пример снимка МРТ. Для получения такого изображения требуется много исходных данных, а значит, и времени на сканирование, что не всегда является наилучшим использованием этих данных, если ваша цель — точное обнаружение, скажем, рака. Можно обучить ИИ определять, какая меньшая часть необработанных данных достаточна для постановки точного диагноза, что подтверждается другими методами, и группа Чопры так и сделала. Но радиологи и пациенты по-прежнему привязаны к изображению. «Нам, людям, удобнее иметь двухмерное изображение, которое наши глаза могут интерпретировать», — говорит Чопра.

Последнее возражение против посттеоретической науки заключается в том, что, скорее всего, существует полезная теория старого типа — то есть обобщения, полученные из дискретных примеров, — которую еще предстоит открыть, и сделать это могут только люди, поскольку для этого требуется интуиция. Другими словами, это требует своего рода инстинктивного наведения на те свойства примеров, которые имеют отношение к общему правилу. Одна из причин, по которой мы считаем Ньютона гениальным, заключается в том, что для того, чтобы прийти ко второму закону, ему пришлось игнорировать некоторые данные. Например, он должен был представить, что предметы падают в вакууме, без мешающих эффектов сопротивления воздуха.

В прошлом месяце в журнале Nature математик Кристиан Стамп из Рурского университета Бохума в Германии назвал этот интуитивный шаг «ядром творческого процесса». Но причина, по которой он пишет об этом, заключается в том, что впервые ИИ справился с этой задачей. DeepMind создал программу машинного обучения, которая подтолкнула математиков к новым открытиям — новым обобщениям — в математике узлов.

Таким образом, в 2022 году не останется практически ни одного этапа научного процесса, где бы ИИ не оставил свой след. И чем больше мы вовлекаем его в наши поиски знаний, тем больше он меняет эти поиски. Нам придется научиться жить с этим, но в одном мы можем себя успокоить: мы по-прежнему задаем вопросы. Как сказал Пабло Пикассо в 1960-х годах, «компьютеры бесполезны. Они могут дать вам только ответы».

Оригинал: The Guardian

Похожие Записи

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Последние <span>истории</span>

Поиск описаний функциональности, введя ключевое слово и нажмите enter, чтобы начать поиск.