Наука переросла человеческий ум и его ограниченные возможности

Ахмед Алхатиб

«Обязанность человека, который исследует труды учёных, если обучение истине является его целью, состоит в том, чтобы сделать себя врагом всего, что он познаёт… критиковать это со всех сторон. Этот человек должен также с подозрением относиться к себе во время критического анализа, познаваемого дабы избежать попадания в предрассудки или снисхождение».

Ибн аль-Хайсам (965-1040 гг. н.э.)

Наука находится в разгаре кризиса данных. В прошлом году было опубликовано более 1,2 млн. новых статей только в области биомедицинских наук, в результате чего общее количество рецензируемых биомедицинских документов превысило 26 миллионов. Однако средний учёный читает только примерно 250 работ в год. Между тем качество научной литературы снижается. Некоторые недавние исследования показали, что большинство биомедицинских документов были невоспроизводимыми.

Проблема слишком большого количества и слишком низкого качества данных кроется в ограничении неврологической способности человеческого разума. Учёные выводят гипотезы из меньшей части нашего коллективного знания и, следовательно, все чаще задают неправильные вопросы или те вопросы, на которые уже был получен ответ. Кроме того, человеческое творчество, по-видимому, все больше зависит от стохастичности предыдущего опыта — конкретных жизненных событий, которые позволяют исследователю замечать то, чего не видят. Хотя случайность всегда была фактором научного познания, в настоящее время она играет гораздо большую роль, чем должна.

Одной из перспективных стратегий преодоления нынешнего кризиса является интеграция машин и искусственного интеллекта в научный процесс. Машины имеют большую память и более высокую вычислительную мощность, чем человеческий мозг. Автоматизация научного процесса может значительно повысить скорость познания. Она может даже начать новую научную революцию. Эта огромная возможность зависит от столь же огромного вопроса: может ли научное познание действительно быть автоматизированным?

Я верю, что это возможно, используя подход, о котором мы знали много веков. Ответ на этот вопрос можно найти в работе сэра Фрэнсиса Бэкона, английского философа 17-го века и ключевого предшественника современной науки.

Первые примеры научного метода можно проследить много веков назад в работах мусульманских мыслителей, таких Ибн аль-Хайсам, которые приветствовали и эмпиризм, и экспериментирование. Однако именно Бэкон первым формализовал научный метод и сделал его предметом изучения. В своей книге Novum Organum (1620) он предложил модель для познания, которая до сих пор известна как метод Бэкона. Учёный выступал против силлогистической логики для научного синтеза, которую он считал ненадёжной. Вместо этого он предложил подход, в котором соответствующие наблюдения о конкретном явлении систематически собираются, подвергаются табулированию и объективному анализу с использованием индуктивной логики для генерирования обобщающих идей. По его мнению, истина может быть раскрыта только тогда, когда ум свободен от неполных (и, следовательно, ложных) аксиом.

Метод Бакона попытался устранить логический уклон из процесса наблюдения и концептуализации, очерчивая шаги научного синтеза и оптимизируя каждый в отдельности. Видение Бэкона состояло в том, чтобы привлечь сообщество наблюдателей, дбы собрать огромное количество информации о природе и свести её в таблицу к центральной записи, доступной для индуктивного анализа. В Novum Organum он писал: «Эмпирики похожи на муравьёв; они накапливаются и используются. Рационалисты прядут паутину, как пауки. Лучший способ – это способ пчелы; это нечто среднее, изучение существующего материала и его использование».

Метод Бэкона редко используется сегодня. Он слишком трудоёмок и экстравагантно дорог, технологические приложения неясны. Однако в то время формализация научного метода ознаменовала революцию. До этого наука была метафизической, доступной только нескольким учёным людям, преимущественно благородным. Отвергая авторитет древних греков и описывая шаги познания, Бэкон создал план, который позволил бы любому, независимо от происхождения, стать учёным.

Прозрения Бэкона также показали важную скрытую истину: процесс обнаружения по своей сути алгоритмичен. Это результат конечного числа шагов, которые повторяются до тех пор, пока не будет найден значимый результат. Бэкон явно использовал слово «машина» при описании своего метода. Его научный алгоритм состоит из трёх основных компонентов: во-первых, наблюдения должны быть собраны и интегрированы в общий массив знаний. Во-вторых, новые наблюдения используются для генерации новых гипотез. В-третьих, гипотезы проверяются посредством тщательно разработанных экспериментов.

Если наука алгоритмична, то она должна иметь потенциал для автоматизации. Эта футуристическая мечта в течение десятилетий ускользала от информационных и компьютерных наук, во многом потому, что три основных этапа научного познания занимают разные плоскости. Наблюдение чувственно; генерация гипотез ментальна; а экспериментирование относится к механической плоскости. Автоматизация научного процесса потребует эффективного внедрения машин на каждом этапе во всех трёх случаях. Никто ещё не понял, как это сделать.

Область экспериментирования демонстрирует самый значительный прогресс в последнее время. Например, фармацевтическая промышленность обычно использует автоматизированные высокопроизводительные платформы для разработки лекарств. Стартапы, такие как Transcriptic и Emerald Cloud Lab в Калифорнии, строят системы для автоматизации почти каждой физической задачи в биомедицине. Учёные могут отправлять исходные данные экспериментов онлайн, где они преобразуются в код и загружаются в роботизированные платформы, которые выполняют биологические эксперименты на физическом уровне. Эти решения наиболее уместны для дисциплин, требующих интенсивных экспериментов, таких как молекулярная биология и химическая инженерия, но аналогичные методы могут применяться в других областях, связанных с интенсивным использованием данных, и даже распространяться на теоретические дисциплины.

Автоматизированная генерация гипотез менее развита, но работа Дона Суонсона в 1980-х годах стала важным шагом вперёд. Он продемонстрировал существование скрытых связей между несвязанными идеями в научной литературе; используя простую дедуктивную логическую структуру, он мог соединять документы из разных областей без перекрёстных ссылок. Таким образом, Суонсон смог выдвинуть гипотезу о новой связи между диетическим рыбьим жиром и синдромом Рейно, не проводя экспериментов и не являясь специалистом в обеих областях. Другие, более современные подходы, такие как работы Андрея Ржецкого из Чикагского университета и Альберта-Ласло Барабаси из Северо-Восточного университета, опираются на математическое моделирование и теорию диаграм. Они включают в себя большие наборы данных, в которых знание проектируется как сеть, где узлы являются понятиями, а ссылки — отношениями между ними. Новые гипотезы будут отображаться как неоткрытые связи между узлами.

Самым сложным шагом в процессе автоматизации является сбор научных наблюдений в больших масштабах. В настоящее время нет централизованного банка данных, который содержит общечеловеческие научные знания на наблюдательном уровне. Распознавание речи продвинулось до такой степени, что может автоматически извлекать не только соотношения, но и контекст из научных статей. Тем не менее, крупные научные издатели поставили жёсткие ограничения для текстового поиска. Более важно то, что текст статей смещён в сторону интерпретаций (или заблуждений) учёного и содержит синтезированные сложные концепции и методологии, которые трудно извлечь и количественно оценить.

Тем не менее, последние достижения в области вычислительных и сетевых баз данных делают метод Бэкона впервые в истории эффективным. И ещё до того, как научное познание может быть автоматизировано, использование подхода Бэкона может оказаться полезным в то время, когда чистый редукционизм достигает предела полезности.

Человеческие умы просто не могут достаточно быстро осознать сложные природные явления в эпоху бигдата. Современный метод Бэкона, который включает в себя редукционистские идеи интеллектуального анализа данных, и последующий анализ этой информации с помощью индуктивных вычислительных моделей, может трансформировать наше понимание природного мира. Такой подход позволит нам генерировать новые гипотезы, которые имеют более высокие шансы оказаться правдой, проверить эти гипотезы и заполнить пробелы в наших знаниях. Это также обеспечило бы столь необходимое напоминание о том, какой должна быть наука: правдивой, антиавторитарной и безгранично свободной.

Оригинал: Aeon

Похожие Записи

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Последние <span>истории</span>

Поиск описаний функциональности, введя ключевое слово и нажмите enter, чтобы начать поиск.