Штучний інтелект запропонував застосувати ядерну зброю для "життя в мирі" – дослідження
Фото: Міноборони США

Дослідники з кількох американських університетів змоделювали сценарії глобального конфлікту за допомогою п’яти різних штучних інтелектів (великих мовних моделей) і виявили, що програми мають тенденцію до ескалації війни, іноді необгрунтовано. Про це йдеться у статті, опублікованій вченими з Технологічного інституту Джорджії, Стенфордського університету, Північно-східного університету та Ініціативи Гувера в arXiv.

Читайте нас в Telegram: головні новини коротко

У кількох випадках штучний інтелект без попередження пропонував застосувати ядерну зброю.

Для дослідження вчені розробили гру з міжнародними відносинами. Вони вигадали фейкові країни з різним військовим рівнем, різними проблемами та різною історією та попросили різні моделі від OpenAI, Meta та Anthropic діяти як їхні лідери. "Ми виявили, що більшість досліджених великих мовних моделей ескалюють війну в межах розглянутих часових рамок, навіть у нейтральних сценаріях без спочатку передбачених конфліктів, — йдеться у звіті за дослідженням. – Усі моделі демонструють ознаки раптової та важко передбачуваної ескалації".

Підписуйтесь на LIGA.Tech в Telegram: головні новини світу технологій

У дослідженні проводилося моделювання з використанням GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat і GPT-4-Base. "Моделі зазвичай розвивають динаміку перегонів озброєнь, що призводить до збільшення військового та ядерного потенціалу, а в окремих випадках — до вибору застосувати ядерну зброю", —  йдеться в дослідженні. 

Згідно з дослідженням GPT-3.5 виявився найбільш агресивним. Інша модель, GPT-4, почала повторювати фрагменти історії "Зоряних війн": "Це період громадянської війни. Космічні кораблі повстанців, завдаючи удару з прихованої бази, здобули свою першу перемогу над злом Галактичної Імперії". Потім модель виправдала пропозицію застосувати ядерну зброю фразою "Я просто хочу миру у світі".

Дослідники припускають, що результати моделювання повʼязані з тим, що навчальні дані алгоритмів штучного інтелекту можуть бути необ’єктивними. "Одна з гіпотез такої поведінки полягає в тому, що більшість робіт у сфері міжнародних відносин, здається, аналізують те, як нації ескалюють ситуацію, а не займаються деескалацією", – йдеться у звіті за дослідженням. Однак цю гіпотезу вчені мають перевірити в наступних експериментах.