Агенты нейросети тренировались на тысячах игр одновременно, проведя около 450 тысяч матчей.
Сотрудники британской компании DeepMind, которая с 2014 года принадлежит Google, опубликовали статью в журнале Science, посвященную успехам их искусственного интеллекта. На этот раз они смогли натренировать алгоритм на командную игру в режиме «Захват флага» мультиплеерного шутера Quake III Arena. Команда из агентов ИИ в подавляющем количестве игр победила команду людей.
Для тренировки агентов специалисты использовали обучение с подкреплением — метод машинного обучения, при котором система учится, взаимодействуя со средой. Авторы статьи пишут, что этот метод успешно зарекомендовал себя в обучении одного агента, но они хотели узнать, насколько он успешен при командной работе.
В качестве платформы они выбрали мультиплеерный шутер от первого лица Quake III Arena, но задали свои условия игры. Во-первых, карты каждый раз генерируются случайно. Во-вторых, в матче принимают участие только четыре игрока: по два с каждой стороны. Соревнование проходит только в одном режиме — «Захват флага»: каждая из команд должна одновременно защитить свой флаг, захватить флаг оппонентов и принести на свою базу. Реакцию системы снизили до средних показателей человека.
Авторы тренировали 30 агентов. Тренировка происходила благодаря многотысячным параллельным партиям, которые отыгрывали агенты. При этом каждый агент представлял собой индивидуальную единицу, которая действует самостоятельно, исходя из обучения с подкреплением. Специалисты также демонстрируют филогенетическое дерево, которое строится в ходе этого обучения.