Учённые хотят научить искусственный интеллект сотрудничеству с помощью игры

Британский исследовательский центр Deep Mind, занимающийся разработками в области искусственного интеллекта, известен созданием систем машинного обучения, благодаря которым ИИ смог обыграть чемпиона в Го (японская логическая настольная игра) и разгромить лучших игроков в StarCraft и Montezuma’s Revenge.

Разработчики пришли к выводу, что ИИ отлично показывает себя в сложных играх с нулевой суммой, где победа одного игрока означает поражение для другого. Примером таких игр являются: Шоги (японская игра на логику и стратегическое мышление), Гекса (математическая игра на ромбообразном поле) и покер. Однако они не отражают всего спектра задач нашего мира, например, планирование маршрута в объезд пробки, переговоры по контракту или взаимодействие с клиентами. Для решения такого рода задач необходимо рассмотреть, какие интересы участников группы конфликтуют / совпадают и достичь компромисса.

Для обучения ИИ подобным вещам учёные решили использовать популярную настольную игру «Дипломатия». В ней несколько игроков борются за доминирование в Европе. В отличие от многих других настолок элемент случайности здесь сведён к минимуму, а основу игрового процесса занимают переговоры между игроками о совместных действиях.

Авторы эксперимента используют цифровой аналог «Дипломатии» для обнаружения и изучения манипулятивного поведения, чтобы бороться с ним в реальных ситуациях. Также это пригодятся для создания ИИ-агентов, которые смогут успешно сотрудничать в решении сложных вопросов в областях доверия и альянсов.

Первые проведённые матчи с участием шести агентов и шести независимо отобранных игроков-людей показали довольно низкие результаты. В общей сложности процент побед искусственного интеллекта составлял от 12% до 33%. Представители Deep Mind подчёркивают, что это лишь первая итерация обучения, и в дальнейшем, благодаря накоплению опыта ИИ сможет показывать более впечатляющие результаты.

Похожие записи