Машинное обучение
Что же такое машинное обучение? Если вкратце, это научная дисциплина, пытающаяся ответить на следующий вопрос: «Как мы можем программировать системы на автоматическое обучение и совершенствование с приобретением нового опыта?». Обучение в этом контексте состоит не в получении новых знаний, а в распознавании сложных паттернов и принятии интеллектуальных решений на основании имеющихся данных. Основная трудность связана с тем, что набор всех возможных решений при всех поступающих данных слишком сложен для описания. Для того чтобы решать эту проблему, в рамках машинного обучения разрабатываются алгоритмы, которые извлекают необходимые знания из конкретных данных и опыта на основании статистических и вычислительных принципов.
История машинного обучения сама по себе очень интересна и насчитывает уже более 70 лет. В 1946 году была разработана первая компьютерная система ENIAC. Компьютером, то есть вычислителем, в те времена назывался человек, выполнявший вычисления на бумаге, а ENIAC стала называться вычислительной машиной. Управлялась она вручную, то есть человеку было необходимо подключать друг к другу компоненты машины, чтобы происходили вычисления. Тогда считалось, что наделение такой машины человеческим подходом к обучению и мышлению было вполне логичной и выполнимой задачей.
В 1950 году британский математик Алан Тьюринг предложил способ измерения продуктивности обучения машин. «Тест Тьюринга» основан на следующей идее: мы можем определить, что машина действительно учится, только если при общении с ней мы не сможем отличить ее от другого человека. Хотя в те времена ни одна из имевшихся систем не смогла пройти «тест Тьюринга», заданная высокая планка стимулировала изобретателей на создание весьма интересных машин.
В 1952 году Артур Сэмюэл из компании IBM написал компьютерную игру «Шашки», поставив перед собой задачу наделить ее таким уровнем мастерства, чтобы она могла сразиться с чемпионом мира. Программы машинного обучения Сэмюэла имели большой успех и здорово помогли профессиональным игрокам в шашки улучшить свои навыки в игре.
Еще одной важной вехой стало появление системы ELIZA, разработанной в начале 60-х годов Йозефом Вайценбаумом. ELIZA была симулятором психотерапевта и использовала такие трюки, как подстановка слов и заготовленные ответы в качестве реакции на определенные ключевые слова. Впервые столкнувшись с ELIZA, некоторые ошибочно принимали ее за живого человека.
Иллюзия реального общения ощущалась сильней, если человек ограничивал беседу разговорами о себе и своей жизни. Несмотря на то, что работала ELIZA далеко не идеально, она стала ранним прообразом современных электронных помощников, таких как Siri и Cortana. Еще одним важным достижением можно назвать систему MYCIN, разработанную в начале 70-х годов в Стэнфордском университете командой под руководством Теда Шортлифа. Путем цепочки вопросов и ответов система помогала медицинскому специалисту поставить правильный диагноз пациенту и выбрать наиболее подходящий способ лечения. MYCIN часто называют первой в мире экспертной системой.
На фоне появления экспертных систем возникали и другие подходы к проблеме машинного обучения. В 1957 году американский нейрофизиолог Фрэнк Розенблатт разработал перцептрон — компьютерную модель восприятия информации мозгом, реализованную впоследствии в электронной машине «Марк-1» и ставшую одной из первых в мире моделей нейросетей. 23 июня 1960 года в Корнеллском университете был продемонстрирован первый нейрокомпьютер «Марк-1», который был способен распознавать некоторые буквы английского алфавита.
Чтобы «научить» перцептрон классифицировать образы, был разработан специальный итерационный метод обучения проб и ошибок, напоминающий процесс обучения человека — метод коррекции ошибки. Кроме того, при распознавании той или иной буквы перцептрон мог выделять характерные особенности буквы, статистически чаще встречающиеся, чем малозначимые отличия в индивидуальных случаях. Тем самым перцептрон был способен обобщать буквы, написанные различным образом (почерком), в один обобщённый образ.
Однако далеко не все разделяли убежденность в том, что подход к обучению компьютеров с помощью нейросетей является правильным. После того как видный ученый Марвин Минский публично раскритиковал эту концепцию, исследования были преимущественно сфокусированы на создании машин, предварительно запрограммированных под выполнение конкретных задач, что обрекло индустрию на застой, продлившийся более 10 лет.
В начале девяностых машинное обучение снова стало очень популярной темой вследствие пересечения информатики и статистики. Такая синергия привела к возникновению нового способа мышления в сфере искусственного интеллекта — вероятностного подхода. Этот подход отличался тем, что основывался на объемах данных, а не выработанных умениях, как в экспертных системах, появлявшихся ранее. Многие сегодняшние успешные случаи применения машинного обучения являются следствием идей, возникших в то время.
Важным аспектом машинного обучения является такой феномен, как Big Data, или большие данные. В девяностые стало очевидно, что чем больше статистической информации «скармливать» вычислительной системе, тем больше вероятность вырабатывать у нее подлинное понимание предоставляемых ей данных.
Благодаря возникновению Интернета и удешевлению устройств для хранения информации ученые получили в свое распоряжение гигантские объемы данных, о которых пятьдесят лет назад исследователи и мечтать не могли. Причем этот объем данных растет в геометрической прогрессии. Например, биология сегодня располагает 1 эксабайтом данных о геномах, что равняется 10 байтам в 18 степени. Ожидается, что в 2024 году новое поколение радиотелескопов будет генерировать такой объем информации ежедневно. Чтобы обрабатывать такие гигантские объемы данных, была создана новая научная дисциплина, занимающаяся большими данными — их быстрым поиском, анализом и ранжированием.
Одним из самых громких успехов последних лет можно назвать сотрудничество ученого Джеффри Хинтона и основателя компании ImageNet Фэй-Фэй Ли, которым совместно удалось существенно продвинуться в развитии такого феномена, как глубокое обучение. Благодаря использованию многослойных нейросетей и миллионов изображений, собранных ImageNet, исследователи смогли добиться того, чтобы компьютеры научились воспринимать информацию не на основании логики, как взрослые люди, а на основании данных от органов чувств — то есть так, как это делает ребенок, познающий мир. По задумке ученых, глубокое обучение должно будет позволить отойти от контролируемого обучения и обеспечить машины способностью обучаться самостоятельно, без каких-либо наставлений со стороны человека.
Важнейшим примером, подтверждающим правильность этого подхода, стал эксперимент, который провела компания Google в 2012 году, вскоре после того, как в нее устроился на работу Джеффри Хинтон. В эксперименте использовалось 1000 серверов с примерно 16 тысячами ядер. В ходе испытаний нейросеть анализировала 10 миллионов скриншотов различных случайных видео с YouTube, из которых смогла с высокой степенью точности определить изображения кошек. Этот эксперимент, прошедший в рамках проекта Google Brain, доказал, что подход Хинтона к машинному обучению является верным и имеет очень впечатляющий потенциал для коммерциализации. Например, в настоящий момент машинное обучение посредством потребления большого количества изображений позволяет с успехом реализовывать проект самоуправляемого автомобиля Google.
Наиболее сильно почувствовать влияние машинного обучения можно, когда оно интегрировано в инструментарий других методик искусственного интеллекта таким образом, как это еще ни разу не делалось. Например, проект DeepMind все той же компании Google смог продемонстрировать потрясающие результаты, совместив глубокое обучения с техникой, получившей название усиленное обучение. Компания создала систему AlphaGo, которая в марте 2015 года смогла обыграть чемпиона мира по китайской настольной игре го. В отличие от компьютера IBM Deep Blue, выигравшего в шахматы у Гарри Каспарова в 1997 году, AlphaGo не программировалось с помощью так называемого древа решений или уравнений для анализа ситуации на доске. Система главным образом училась игре, наблюдая за тем, как в нее играли профессионалы. По результатам наблюдений AlphaGo сыграла сама с собой миллион партий, анализируя результаты и выстраивая самостоятельную стратегию.
Сегодня машинное обучение активно участвует в нашей жизни и касается каждого из нас, даже если вы напрямую этого не замечаете. Это и системы рекомендации товаров в онлайн-магазинах, и системы фильтрации спама в электронной почте. А иногда, позвонив в службу поддержки какой-нибудь компании, мы с трудом можем определить, разговаривает с нами живой человек или цифровой ассистент, распознающий речь и дающий ответы на вопросы, догадываясь о контексте.
Помимо очевидных достоинств, этот феномен является и серьезным источником для беспокойства. Дело даже не в том, что обучающиеся без участия человека машины однажды захотят нас уничтожить. Негативное влияние искусственного интеллекта и машинного обучения мы ощутим на себе в самые ближайшие годы, когда на бирже труда окажутся тысячи администраторов, секретарей, переводчиков, продавцов и представителей многих других профессий. Через некоторое время к ним могут присоединиться водители, машинисты поездов и, возможно, даже журналисты. По данным Всемирного экономического форума, в течение следующих пяти лет компьютеры и роботы займут пять миллионов рабочих мест, которые сейчас принадлежат людям, причем о том, что со всем этим делать, кажется, не думает никто.
Евгений Мосунов