ИИ AlphaStar от DeepMind смог победить 99,8% игроков-людей в StarCraft II, достигнув уровня гроссмейстера

Подразделение DeepMind, входящее в состав Google и занимающееся исследованиями в сфере искусственного интеллекта, рассказало об очередных успехах своих ИИ-агентов, обученных играть в игру StarCraft II. ПО AlphaStar достигло невероятных успехов и теперь способно обыграть в соревновании 99,8% всех игроков-людей.

Отмечается, что с целью уравнять в возможностях ИИ и игроков людей, ПО AlphaStar было соответствующим образом модифицировано. В частности, ИИ был обучен играть всеми тремя доступными в StarCraft II рассами. Кроме того, обзор карты был ограничен таким же уровнем, что доступен человеку. Наконец, действовало ограничение в количестве кликов кнопками мышки – не более 22 недублирующихся действия каждые 5 секунд игры. Это соответствует количеству стандартных движений при игре человеком.

Даже несмотря на все указанные ограничения, ИИ смог обыграть 99,8% всех игроков-людей, принявших участие в онлайн-соревновании, и достичь уровня гроссмейстера. Это максимально возможный онлайн-рейтинг, и AlphaStar стала первой ИИ-системой, достигшей такого результата в StarCraft II.

DeepMind рассматривает это достижение как ещё одно доказательство того, что используемый командой способ машинного обучения может однажды быть использован для тренировки самообучающихся роботов, самоуправляемых автомобилей и создания более совершенных систем распознавания изображений и объектов.

Цель исследований AlphaStar и других подобных игровых агентов (например, OpenAI Dota 2) состоит не просто в том, чтобы сокрушить людей в различных играх, просто чтобы доказать, что это возможно. Эти исследования позволяют доказать, что при достаточном времени, усилиях и ресурсах сложное программное обеспечение для искусственного интеллекта может превзойти человека практически в любой конкурентной когнитивной задаче, будь то настольная игра или современная видеоигра. Это также показывает преимущества метода машинного обучения с подкреплением. Этот метод позволяет агентам самостоятельно понять, как нужно играть, и иногда это приводит к появлению невероятных тактик.

OpenAI и DeepMind ускоренно обучают своих агентов ИИ в играх против своих же версий и в ускоренном темпе. Таким образом, агенты могут наигрывать сотни лет игрового процесса на протяжении нескольких месяцев. Это и позволило данному типу программного обеспечения превзойти самых талантливых игроков в Го, а теперь и в более сложных играх, таких как StarCraft II и Dota 2. Хотя такое ПО всё же ограничено узкой дисциплиной, и агент для Го не может играть в Dota 2 и наоборот.

Источник: ITC.ua



Самые актуальные новости - в Telegram-канале

Читайте также

Вверх