Игроки в го очень быстро учатся у ИИ и еще смогут составить ему конкуренцию

Ученые из Городского университета Гонконга разработали специальный индекс, который показывает силу игрока в го. По оценке исследователей, искусственный интеллект сильно повлиял на игроков-людей. После 2016 года индекс силы лучших игроков-людей начал быстро расти: они стали более изобретательными в игровых стратегиях. Они играют с ИИ и учатся его обыгрывать.
Игроки в го очень быстро учатся у ИИ и еще смогут составить ему конкуренцию
Unsplash.com

Не только ИИ учится у человека, но и человек учится у ИИ

Все началось на Всемирной выставке в Нью-Йорке в 1940 году, когда Эдвард Кондон, физик-ядерщик, продемонстрировал электромеханическую машину-игрока. Она весила целую тонну и успешно играла в простую китайскую игру Ним. Эта машина, одна из первых зарегистрированных компьютеризированных игр, легко расправилась с большинством соперников-людей. Вероятно, это был первый случай, когда люди столкнулись с тем, что неодушевленный объект может быть просто умнее, чем они.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В 1997 году компьютер IBM Deep Blue (размером с небольшую комнату) победил чемпиона мира по шахматам Гэри Каспарова. Еще десять лет спустя участники гроссмейстерского турнира потерпели поражение от шахматной программы с искусственным интеллектом, работавшей на персональном компьютере.

Компьютерные версии го — обманчиво простой игры, но на много порядков более сложной, чем шахматы — в течение многих лет могли играть в лучшем случае на уровне людей-любителей. Но AlphaGo от DeepMind использовала нейронные сети, чтобы создать программу, которая одержала победу над ведущими мастерами игры го. Но кажется, соревнование человека с ИИ еще далеко не закончено.

Гейши играют в го
Гейши играют в го. 1811 год
Википедия
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Ответ на вызов

Минкью Шин, доцент кафедры маркетинга Городского университета Гонконга, говорит, что AlphaGo и ее аналоги побудили помогли игрокам-людям стать совершеннее.

Шин и его коллеги провели масштабный анализ, просмотрев базу данных из 5,8 миллионов ходов игроков в го, сделанных в течение 71 года, начиная с 1950 года (когда правила го были стандартизированы).

«Наши результаты показывают, что игра ИИ побудила людей отказаться от многих традиционных стратегий и начать исследование новых стратегий, и это сделало игру людей гораздо более сильной», — говорит Шин.

Ученые разработали индекс для ранжирования качества решений на каждом этапе игры. Используя искусственную нейросеть KataGo, они сравнили оптимальные ходы с почти 60 миллиардами теоретических возможных игровых паттернов. Это дало оценку, названную индексом качества решений (DQI).

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Изучая DQI за несколько десятилетий, Шин и его команда обнаружили, что в течение первых нескольких десятилетий игры в го индекс почти не менялся. Существенное улучшение DQI было обнаружено сразу после 2016 года, когда AlphaGo сыграл свои первые партии с человеком.

Дэвид Сильвер, ученый из DeepMind, прокомментировал эти выводы: «Удивительно видеть, как быстро игроки-люди адаптировались к новому вызову. Эти результаты показывают, что люди могут улучшать свою игру, опираясь на ИИ и могут увеличить свой потенциал».

Люди (по крайней мере, игроки в го) понимают, что делает ИИ и учатся у него.