Искусственный интеллект научился играть в прятки
Нейросеть удалось обучить игре в прятки. Об этом сообщила ведущая лаборатория искусственного интеллекта OpenAI.
По словам ученых, это пример того, как простые методы машинного обучения могут дать сложные результаты.
ИИ играет в очень простую версию игры, где «ищущие» получают очки, когда те, кто прячется находится в их поле зрения. Сначала прячущиеся получают немного времени в начале, чтобы придумать план для укрытия — обе стороны могут перемещать объекты на игровом поле (например, блоки, стены и рампы) для получения преимущества.
Результаты этого простого обучения были весьма впечатляющими, отмечают ученые. В течение 481 миллиона игр в прятки ИИ начал разрабатывать стратегии и контрстратегии, а агенты ИИ перешли от хаотичного бега к координации со своими союзниками. К примеру, они использовали конструкции для того, чтобы укрыться от соперника, не дать ему возможности залезть на стену и ограждались от его взглядов с помощью сложных игровых блоков.
Это последний пример того, как много можно сделать с помощью простой техники искусственного интеллекта — усиленного обучения, отмечают исследователи. В этом случае системы искусственного интеллекта получают «награды» за желаемое поведение и свободны в изучении наилучшего способа максимизации своих вознаграждений.
Please enable JavaScript
В прошлом ученые использовали усиленное обучение наряду с другими методами для создания систем искусственного интеллекта, которые могут играть в сложные игры — например, военные стратегии.