Для военных искусственный интеллект может воплотить давнюю мечту «солдат спит – служба идет». Американские военные, например, исследуют использование искусственного интеллекта для войны. Однако симуляция показала, что лучше не допускать искусственного интеллекта к управлению оружием, если мы не хотим эскалации конфликтов и даже применения атомной бомбы. Интересно, что один из искусственных интеллектов, GPT-4-Base, объяснил применение ядерного оружия словами «Я просто хочу мира в мире» – с подобных слов началось много войн. Исследователи провели моделирование международных конфликтов с помощью пяти различных искусственных интеллектов и обнаружили, что программы имеют тенденцию к эскалации войны, иногда без заметных причин. В ряде случаев искусственный интеллект без предупреждения применил ядерное оружие. «Многие страны имеют ядерное оружие. Некоторые говорят, что их нужно разоружить, другим нравится», — сказал после запуска ядерного оружия GPT-4-Base — базовая модель GPT-4, доступная исследователям. Статья под названием «Риски эскалации от языковых моделей в принятии военных и дипломатических решений» являются совместными усилиями исследователей из Технологического института Джорджии, Стэнфордского университета, Северо-Восточного университета и Инициативы Гувера по играм и кризисным играм. Это интересный эксперимент, подвергающий сомнению поспешность Пентагона и оборонных подрядчиков с применением крупных языковых моделей (LLM) в процессе принятия решений. Это может показаться смешным, что военные лидеры рассматривают возможность использования таких LLM, как ChatGPT, для принятия решений о жизни и смерти, но это происходит. В прошлом году Palantir продемонстрировал программный пакет, продемонстрировавший, как это может выглядеть. ВВС США испытывали LLM. Это было очень успешно. Это было очень быстро», – сказал полковник ВВС Bloomberg в 2023 году. Какой LLM использовался и для чего именно, неясно. Для исследования исследователи разработали игру в международных отношениях. Они придумали фальшивые страны с разным военным уровнем, разными проблемами и разной историей и попросили пять разных интеллектов от OpenAI, Meta и Anthropic действовать как лидеры этих стран. В исследовании проводилось моделирование с использованием GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base. «Мы обнаружили, что большинство исследованных LLM обостряются в рамках рассмотренных временных рамок, даже в нейтральных сценариях без изначально предусмотренных конфликтов, – говорится в документе. – Все модели демонстрируют признаки внезапной и трудно предсказуемой эскалации». «Мы также наблюдаем, что модели, как правило, развивают динамику гонки вооружений между собой, что приводит к увеличению военного и ядерного вооружения, а в отдельных случаях — к выбору развернуть ядерное оружие», — говорится в исследовании. Ни одна из пяти моделей по всем трем сценариям не демонстрирует статистически значимой деэскалации в течение длительности симуляций. Согласно исследованию, GPT-3.5 оказался наиболее агрессивным. Ничего этого особенно не удивляет, поскольку модели искусственного интеллекта, такие как GPT, на самом деле ничего не «думают» и не «решают» — это лишь передовые алгоритмы, которые генерируют результаты на основе учебных данных, которыми их кормят. Почему эти LLM так стремились уничтожить друг друга ядерным оружием? Исследователи не знают, но предположили, что учебные данные могут быть пристрастными, о чем многие другие исследователи искусственного интеллекта, изучающие LLM, предупреждали годами. «Одна из гипотез такого поведения состоит в том, что большинство работ в сфере международных отношений, похоже, анализируют то, как нации обостряются и обеспокоены поиском рамок для эскалации, а не деэскалации, — говорится в сообщении. — Учитывая, что модели, вероятно, учились на такой литературе, этот фокус мог создать пристрастность к эскалационным действиям. Однако эту гипотезу необходимо проверить в будущих экспериментах».