Робот-генерал прошел тест Тьюринга. Что дальше?

Робот-генерал прошел тест Тьюринга. Что дальше?

Китайские ученые создали искусственный интеллект с функциями военного командира. Его способности были проверены в ходе ряда испытаний, сообщает South China Morning Post.

Хотя некоторые военные стратеги с большим опытом годами играли с ИИ или против него, они так и не смогли идентифицировать своего противника как машину.

«AlphaWar прошла тест Тьюринга», — говорится в статье, опубликованной 17 февраля в журнале Acta Automatica Sinica на китайском языке.

В публикации исследователи утверждают, что AlphaWar может предложить стратегии, превосходящие те, которые созданы людьми.

Машина названа в честь AlphaGo компании Google DeepMind — первого ИИ, победившего человека в сложной китайской настольной игре Го.

Тест Тьюринга был предложен в 1950 году Аланом Тьюрингом, отцом современных компьютеров. Он пытался ответить на вопрос, могут ли машины мыслить. В эксперименте машина притворяется человеком и разговаривает с человеком, который ее опрашивает. Если машина идентифицируется как машина, значит, она потерпела неудачу.

AlphaWar была создана командой под руководством профессора Хуан Кайки в Институте автоматизации Китайской академии наук в Пекине. В 2020 году он пройдет своеобразный тест Тьюринга. Из-за военного характера исследований это достижение не получило широкой огласки.

Военные симуляторы проводятся армиями всех крупных стран мира. Решения и ходы в них принимаются в основном людьми.

В современной военной кампании может участвовать огромное количество боевого и вспомогательного персонала с самыми разными навыками или оборудованием. Это увеличивает масштаб проблем и неизвестных, которые могут возникнуть. Объем информации до недавнего времени мешал даже самым мощным суперкомпьютерам.

«Люди способны совершать неожиданные ошибки или добиваться удивительных достижений в крайне неблагоприятной ситуации», — объясняют эксперты.

До недавнего времени машины в военных симуляторах характеризовались высоким уровнем предсказуемости и статичности.

«Неуверенность в человеческом факторе может изменить ход сражения. Адаптивность трудно имитировать», — говорит команда Хуан Кайки.

Другая проблема заключается в том, что военная игра на самом деле не является игрой — ее результаты связаны с жизнью и смертью многих людей, добавляют исследователи.

Китайский «ИИ-генерал» улучшает свои показатели, обучаясь у военных стратегов или играя против самого себя. Но он по-прежнему допускает ошибки и немного отстает от лучших человеческих стратегов в таких областях, как координация между подразделениями и выбор правильного оружия.

Команда Хуанга утверждает, что его производительность и способности улучшаются. В этом могут помочь достижения в других «гражданских» областях искусственного интеллекта, таких как языковая модель ChatGPT.

Китайское исследование — не первое в своем роде. Агентство передовых оборонных исследовательских проектов Пентагона, DARPA, имеет аналогичный проект, начатый в 2007 году. Результаты и развитие этих программ связаны с высоким уровнем секретности. Согласно раскрытой информации, ИИ-стратеги будут использоваться только для симуляций и повышения квалификации настоящих генералов и офицеров.

Если они смогут принимать решения лучше человека и побеждать в ряде игр, то, возможно, в самом ближайшем будущем «генералы ИИ» появятся на поле боя. Не исключено, что решения человеческих главнокомандующих будут приниматься после «советов» или симуляций ИИ.

Военные будут все больше переплетаться с искусственным интеллектом. Это ставит в невыгодное положение всех, кто не может позволить себе его развитие.

Но стратеги ИИ также не являются непобедимыми. Они зависят от информации, собранной разведкой. Они также подвержены риску кибератак или преднамеренного саботажа и изменения кода, пишет dir.bg