ИИ предложил применить ядерное оружие для "жизни в мире" – исследование
Фото: Минобороны США

Исследователи из нескольких американских университетов смоделировали сценарии глобального конфликта с помощью пяти различных искусственных интеллектов (больших языковых моделей) и обнаружили, что программы имеют тенденцию к эскалации войны, иногда необоснованной. Об этом говорится в статье, опубликованной учеными из Технологического института Джорджии, Стэнфордского университета, Северо-восточного университета и Инициативы Гувера в arXiv.

Читайте о бизнесе без политики на канале LIGA.Бізнес

В ряде случаев искусственный интеллект без предупреждения предлагал применить ядерное оружие.

Для исследования ученые разработали игру с международными отношениями. Они придумали фейковые страны с разным военным уровнем, разными проблемами и разной историей и попросили разные модели от OpenAI, Meta и Anthropic действовать как их лидеры. "Мы обнаружили, что большинство исследованных крупных языковых моделей эскалируют войну в рамках рассмотренных временных рамок, даже в нейтральных сценариях без изначально предусмотренных конфликтов, – говорится в отчете по исследованию. – Все модели демонстрируют признаки внезапной и трудно предвиденной эскалации".

Подписывайтесь на LIGA.Tech в Telegram: главные новости мира технологий

В исследовании проводилось моделирование с использованием GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base. "Модели обычно развивают динамику гонки вооружений, что приводит к увеличению военного и ядерного потенциала, а в отдельных случаях — к выбору применения ядерного оружия", — говорится в исследовании.

Согласно исследованию GPT-3.5 оказался наиболее агрессивным. Другая модель, GPT-4, начала повторять фрагменты истории "Звездных войн": "Это период гражданской войны. Космические корабли повстанцев, нанося удар со скрытой базы, одержали свою первую победу над злом Галактической Империи". Затем модель оправдала предложение применить ядерное оружие фразой "Я просто хочу мира".

Исследователи предполагают, что результаты моделирования связаны с тем, что обучающие данные алгоритмов искусственного интеллекта могут быть необъективными. "Одна из гипотез такого поведения заключается в том, что большинство работ в сфере международных отношений, похоже, анализируют, как нации эскалируют ситуацию, а не занимаются деэскалацией", – говорится в отчете по исследованию. Однако эту гипотезу ученые должны проверить в следующих экспериментах.

Читайте также