И мышление и интеллект – это то, что Марвин Минский назвал «словами‑чемоданами», то есть словами, в которые мы упаковываем много значений, чтобы можно было говорить о сложных вопросах, опуская подробности. Когда мы заглядываем внутрь этих слов, то находим массу разных аспектов, механизмов и уровней понимания. Вот почему ответить на вечные вопросы: «Может ли машина мыслить?» или «Когда машины достигнут интеллекта человеческого уровня?» – так сложно. Мы используем «слова‑чемоданы», когда говорим об особых проявлениях производительности вычислений, демонстрируемых машинами, и о более общих человеческих компетенциях. Мы делаем широкие обобщения о компетенциях и сильно переоцениваем возможности машин – тех, которые есть сегодня, и тех, что появятся в течение следующих нескольких десятилетий.
В 1997 году суперкомпьютер обыграл чемпиона мира по шахматам Гарри Каспарова. Сегодня у десятков программ, работающих на ноутбуках, шахматный рейтинг выше, чем у любого когда‑либо жившего человека. Компьютеры определенно могут демонстрировать более высокую производительность при игре в шахматы, чем мы. Но вот уровень их шахматной компетентности даже не стоял рядом с человеческим.
Все шахматные программы используют тьюринговский метод решения «в лоб» – поиском по дереву с эвристической оценкой. В 1970‑х скорость компьютеров была такова, что этот подход перегружал программы ИИ, когда они пытались эмулировать то, как люди, по их собственным словам, обдумывают следующий ход, и в результате от алгоритма в основном отказались. У сегодняшних шахматных программ нет способа определить, почему один ход лучше, чем другой, кроме того, ведет ли он игру к той части дерева вариантов, где у противника останется меньше хороших ходов. Игрок‑человек может делать обобщения, объясняя, чем хороши определенные виды ходов, другому игроку‑человеку. Программы, основанные на прямых вычислениях, не способны учить людей шахматам, кроме как выступая в роли спарринг‑партнера. Делать выводы и строить аналогии, учиться самостоятельно – задача человека. Шахматная программа не знает, что обыгрывает противника, не знает, что она – учебное пособие, не знает, что играет во что‑то под названием «шахматы», да и само понятие «игра» ей неизвестно. Создание шахматной программы, опирающейся на «грубую силу» и побеждающей любого человека, совершенно не приближает нас к компетентности в области шахмат.
Теперь рассмотрим глубинное обучение, которое захватывает воображение людей уже где‑то год или около того. Это новая версия обратного распространения, алгоритма обучения, известного примерно три десятилетия и основанного на абстрактных моделях нейронов. Слои нейронов преобразуются из единичного сигнала, такого как амплитуда звуковой волны или яркость пикселя в изображении, во все более высокоуровневые описания полного значения сигнала: в слово, которое слагают звуки, в предметы, запечатленные на изображении. Первоначально обратное распространение могло на практике работать только с двумя или тремя слоями нейронов, так что нужно было проделать некоторую предварительную обработку, прежде чем применять алгоритмы обучения, чтобы получить из сигналов более структурированные данные. Новые версии работают с большим числом слоев, сети становятся глубже – отсюда и название «глубинное обучение». Сейчас предварительные этапы обработки также включены в обучение, это позволяет исключить человеческий фактор, и новые алгоритмы работают намного лучше использовавшихся каких‑то три года назад, потому‑то они и привлекают к себе широкое внимание. Они опираются на мощные вычислительные ресурсы серверных парков и на очень большие массивы данных, которых раньше не существовало. Но, что важнее всего, они также опираются на последние научные разработки.
Известный пример того, как они работают, – это маркировка изображения как относящегося к классу «ребенок с мягкой игрушкой». Когда вы смотрите на изображение, то именно это и видите. Алгоритм очень хорошо справился с маркировкой, намного лучше, чем прогнозировали практикующие специалисты по искусственному интеллекту. Но у него нет полноты компетентности, которая есть у человека, имеющего дело с тем же самым изображением.
Алгоритм обучения знает, что на изображении есть ребенок, но не знает строения ребенка, равно как не знает и того, где именно на изображении он расположен. Нынешние алгоритмы глубокого обучения способны только обозначить вероятность для каждого пикселя: что именно этот пиксель является частью ребенка. В то время как человек видит, что ребенок занимает среднюю четверть изображения, у современного алгоритма есть только вероятностное представление о пространственной протяженности ребенка. Он не способен применить исключающее правило и заявить, что пиксели на границах изображения не могут с ненулевой вероятностью также не быть частью ребенка. Если взглянуть на слои нейронов изнутри, то мы увидим, что одно из свойств, изученных на данном уровне, – это участок изображения, похожий на глаз, а другое – участок, похожий на стопу. Однако нынешние алгоритмы не способны понять, какие пространственные отношения между глазами и ступнями в принципе допустимы на данном изображении, а потому их можно легко одурачить, подсунув им гротескный коллаж из частей ребенка, и они посчитают, что на изображении – ребенок. Ни один человек такого не сделает; он сразу ясно увидит, что ему подсунули какую‑то ерунду. А еще современный алгоритм не сможет сообщить роботу, в какой точке пространства нужно захватить ребенка, чтобы поднять его, где надо держать бутылочку, чтобы накормить его, и с какой стороны подойти, чтобы поменять подгузник. Даже самому современному алгоритму очень далеко до компетентности человеческого уровня в области понимания изображений.
Полным ходом ведутся работы над тем, чтобы добавить в глубинное обучение направленность внимания и обработку согласованной пространственной структуры. Это тяжелый научно‑исследовательский труд, и мы понятия не имеем о том, насколько сложным он будет, сколько уйдет времени, а также не заведет ли нас в тупик такой подход. Потребовалось около 30 лет, чтобы проделать путь от обратного распространения до глубинного обучения, и многие исследователи считали, что у обратного распространения нет будущего. Они ошибались, но я бы не удивился, если бы они оказались правы, поскольку мы все же узнали, что алгоритм обратного распространения – это не то, что происходит в голове у человека.
Страхи по поводу того, что системы искусственного интеллекта выйдут из под контроля и либо покорят людей, либо сделают их лишними на планете, не имеют ни малейшего основания. Введенные в заблуждение «словами‑чемоданами», люди совершают ошибки категоризации – ошибки такого рода, как если бы распространение более эффективных двигателей внутреннего сгорания означало скорое появление варп‑двигателей.
|