© pixabay.com

В предыдущей части мы рассказали, как зарождались идеи ИИ, а теперь обратимся к современности.

Deep Blue

После долгих лет взлетов и падений произошло значимое событие для ИИ: 11 мая 1997 года шахматный суперкомпьютер Deep Blue, разработанный компанией IBM, обыграл чемпиона мира по шахматам Гарри Каспарова в матче из шести партий со счетом 3½ на 2½.

В Deep Blue процесс поиска по дереву шахматных ходов был разбит на три этапа. Прежде всего, главный процессор исследовал первые уровни дерева шахматной игры, затем распределял конечные позиции между вспомогательными процессорами для дальнейшего исследования. Вспомогательные процессоры углубляли поиск еще на несколько ходов, а далее раздавали свои конечные позиции шахматным процессорам, которые, в свою очередь, осуществляли поиск на последних уровнях дерева. Оценочная функция Deep Blue была реализована на аппаратном уровне — шахматных процессорах. В конструкцию аппаратной оценочной функции было заложено около 8000 настраиваемых признаков позиции. Значения отдельных признаков объединялись в общую оценку, которая затем использовалась Deep Blue для оценки качества просматриваемых шахматных позиций.

В 1997 году Deep Blue по мощности находился на 259-м месте (11,38 GFLOPS). Для сравнения: в настоящее время самый производительный суперкомпьютер имеет 93,015 GFLOPS.

XXI век

За последние два десятилетия интерес к ИИ заметно вырос. Рынок технологий ИИ (оборудование и софт) достиг 8 миллиардов долларов и, по прогнозам специалистов из IDC, вырастет до 47 миллиардов к 2020 году.

Этому способствует появление более быстрых компьютеров, стремительное развитие технологий машинного обучения и больших данных.

Использование искусственных нейронных сетей упростило выполнение таких задач, как обработка видеоизображения, текстовый анализ, распознавание речи, причем уже существующие методы решения задач совершенствуются с каждым годом.

Проекты DeepMind

В 2013 году компания DeepMind представила свой проект, в котором обучила ИИ играть в игры для консоли Atari так же хорошо, как человек, и даже лучше. Для этого был использован метод глубинного обучения с подкреплением, позволивший нейросети самостоятельно изучить игру. В начале обучения система ничего не знала о правилах игры, используя на входе только пиксельное изображение игры и информацию о получаемых очках.

Помимо этого, DeepMind разрабатывает ИИ для обучения более сложным играм, таким как Starcraft 2. Эта стратегия реального времени также является одной из самых популярных кибердисциплин в мире. В отличие от классических видеоигр, здесь доступно гораздо больше возможных действий, мало информации об оппоненте, возникает необходимость анализировать десятки возможных тактик. На данный момент ИИ справляется только с простыми мини-задачами, например созданием юнитов.

Нельзя не упомянуть про другой проект DeepMind под названием AlphaGo. В октябре 2015 года система одержала победу над чемпионом Европы по го Фань Хуэем со счетом 5:0. Спустя год в Южной Корее прошел новый матч, где противником AlphaGo стал один из лучших игроков в мире Ли Седоль. Всего было сыграно пять партий, из которых AlphaGo выиграл только четыре. Несмотря на высокий уровень продемонстрированных навыков, программа все же ошиблась во время четвертой партии. В 2017 году вышел фильм про AlphaGo, который мы рекомендуем к просмотру. Недавно DeepMind объявила о создании нового поколения AlphaGo Zero. Теперь программа обучается, играя против самой себя. После трех дней тренировок AlphaGo Zero выиграла у своей предыдущей версии со счетом 100:0.

Заключение

До сих пор системы ИИ являются узкоспециализированными, то есть справляются с задачами лучше человека только в конкретных областях (например, игра в го или анализ данных). Нам еще далеко до создания общего (полноценного) искусственного интеллекта, который был бы способен полностью заменить человеческий разум и которому была бы под силу любая интеллектуальная задача.

Источник: A Short History of Artificial Intelligence