Токсичные игроки наравне с читерами являются головной болью комьюнити любой популярной онлайн-игры. Как правило, с ними борются с помощью гибкой системы жалоб, фильтров и даже перманентно банят в особо запущенных случаях. Один из интересных вариантов решения проблемы предлагает компания Amazon. Ещё в 2017 году подразделение Amazon Technologies подало заявку на патент системы матчмейкинга, которая формирует состав игроков на основе их поведения.

В сообщении отмечается, что традиционные системы подбора игроков ориентированы на уровень навыков игрока, но есть и другие показатели, которые следует учитывать. Удовольствие игрока зависит не только от навыков других членов группы. Желание использовать нецензурную лексику или мешать троллингом может испортить игровой опыт. Система Amazon изолирует токсичных игроков в отдельный пул, чтобы они играли только друг с другом.

В то же время создатели системы прекрасно понимают, что «токсичность» – очень широкое понятие, и некоторые пользователи могут спокойно относиться к нецензурным выражениям. Поэтому в систему добавят опцию выбора того, что игроки считают неприемлемым в поведении партнёров по мультиплееру. После этого система будет подбирать составы матчей на основе этих условий.

Отмечается, что система была частично протестирована в онлайн-шутер Crucible, но как известно, из-за низкой популярности проект был закрыт. Теперь есть предположения, что в дальнейшем этот функционал будет тестироваться в будущей игре от Amazon – New World.


Похожее