Искусственный интеллект Google впервые в истории победил профессионального игрока в го

Компания DeepMind, которая с недавних пор является структурным подразделение Google и занимается разработкой систем искусственного интеллекта, достигла впечатляющего рубежа. Ее система под названием AlphaGo впервые в истории выиграла матч в го у трехкратного чемпиона Европы Фань Хуэя.Сегодня уже никого не удивить новостью о том, что компьютер выиграл шахматную партию у профессионального игрока, поскольку эту «вершина» была взята еще в далеком 1996 году (поединок компьютера Deep Blue против Каспарова), но игра го до недавнего времени оставалась своего рода неприступной крепостью для компьютеров в мире логических игр.

Го – логическая настольная игра, зародившаяся в Древнем Китае, по разным оценкам, от 2 до 5 тысяч лет назад. В нее играют на доске со стандартной разлиновкой 19х19 линий. Игра рассчитана на двух игроков, один из которых получает черные камни, другой — белые (полный комплект для игры должен содержать 361 камень — 180 белых и 181 черный). Цель игры — отгородить на игровой доске камнями своего цвета большую территорию, чем противник.

Неисчислимое множество сценариев развития событий предопределяется огромным количеством возможных ходов. Этими и другими особенностями и обусловлена сложность обучения искусственного интеллекта игре в го. По вычислениям математика Джона Тромпа, количество возможных комбинаций в го измеряется числом, состоящим из 171 цифр, и превышает число атомов в наблюдаемой Вселенной. Надеемся, эти факты позволят лучше осознать важность этого события.

Система AlphaGo основана на поиске Монте-Карло, нейросетях и глубоком машинном обучении. Нейросети пропускают описание состояния доски го через 12 различных слоев из миллионов искусственных нейронов. Каждая сеть играет свою роль. Так, «сеть политики», выбирает следующий ход, а на «сеть ценности» возложена задача определения победителя.

Ранее мы уже писали о достижениях нейронных «мастеров» в искусстве, подробно описывая методику обучения нейронных сетей. Здесь процесс обучения проходил схожим образом. Только в качестве примера для обучения были выбраны люди. Как утверждается, система выучила 30 млн ходов партий реальных людей и научилась предсказывать результат следующего хода с рекордной точностью – 57%. До AlphaGo лучший результат составлял 44%. Само собой, весь процесс обучения требовал огромных вычислительных ресурсов, которые любезно были предоставлены облачной платформой Google Cloud Platform.

Матчу с Фанем предшествовала «разминка» с другими программами по игре в го – AlphaGo выиграла 494 матча из 495. Фань был сильно удивлен, узнав, что проиграл компьютеру в первой игре, и списал поражение на собственный неагрессивный стиль. Но последующие четыре партии, несмотря на более агрессивный стиль игры Фаня, остались за AlphaGo. Таким образом, алгоритм, для запуска которого потребовался вычислительный кластер из 170 видеокарт и 1200 процессоров, выиграл все пять матчей.

Наверное, не лишним будет сказать, что Фань является лучшим только в Европе, где уровень владения го не очень высок. Следующим большим испытанием станет матч в Сеуле в марте против легендарного корейского профессионала в го Ли Седоля — лучшего игрока в го за последнее десятилетие. Уровень игры этого человека в разы выше, так что впереди у команды разработчиков AlphaGo тяжелые рабочие будни.

Компания Google в свою очередь заявила, что это еще один шаг на пути к созданию полноценного ИИ.В компании Марка Цукерберга, который недавно публично признал создание ИИ своей целью на 2016 год, также занимаются разработкой подобной системы. Если верить Цукербергу, сотрудники Facebook AI Research уже близки к цели. К слову, Марк лично в буквальном смысле пристально следит за процессом разработки, так как стол руководителя проекта расположен в шести метрах от стола исполнительного директора Facebook.

http://itc.ua/