Китайский ИИ AlphaWar для военных игр «по-настоящему прошёл тест Тьюринга» — как и человек, он ошибается и удивляет

Читать в полной версии

Группа китайских исследователей сообщила о том, что созданный ими ИИ-алгоритм AlphaWar два года назад успешно прошёл тест Тьюринга. Алгоритм разработан для военно-штабных игр. Он планирует военные операции на всех уровнях. Играя против людей, он ничем не выдал своего искусственного происхождения. Но это нужно не для маскировки, а для учёта человеческого фактора, от которого в бою зависит если не всё, то многое.

Источник изображения: Pixabay

Считается, что первым в мире тест Тьюринга — придуманный 70 лет назад алгоритм проверки машины на человечность — прошёл в 2014 году чат-бот «Евгений Густман», написанный российским и украинским программистами. Ставшие недавно модными чат-боты ChatGPT компании OpenAI и чат-бот, разработанный Google, тоже якобы прошли этот тест. Однако по словам разработчиков AlphaWar, по-настоящему тест Тьюринга прошёл только их алгоритм.

Военный ИИ AlphaWar показал способность стратегически планировать военные операции и обучаться в процессе игры как с противником, так и с самим собой. При игре с людьми они даже не догадывались, что против них играет компьютер. На высших уровнях командования AlphaWar превзошёл живых стратегов, но на уровне координации действий подразделений и в вопросах выбора оружия оказался менее искусным, чем профессиональные военные.

Учёт человеческого фактора в боевых условиях представляется бесценным опытом, который, к сожалению, приобретается лишь на поле боя со всеми сопутствующими потерями. Этот фактор остаётся той неопределённостью, научить ИИ балансировать которой будет самым сложным. Но если это получится, то тогда у общества появятся совсем другие вопросы к искусственному интеллекту. И ведь у искусственного интеллекта тоже могут возникнуть вопросы к человеку.