Штучний інтелект здатен планувати біологічні атаки та допомагати з біозброєю – звіт
Моделі штучного інтелекту, на базі яких працюють чатботи, можуть бути використані для планування і здійснення біологічних атак. Про це йдеться у звіті аналітичного центру Rand Corporation із США.
Дослідження показало, що великі мовні моделі (LLM) виявилися корисними інструментами, але вони не змогли надати чітких інструкцій для створення зброї. Зазначається, що попередні спроби створити біологічних агентів як зброю були неуспішними, через недостатнє розуміння властивостей бактерій, як показала спроба японської секти Аум Сінрікьо використати ботулотоксин у 1990-х роках.
Звіт виносить припущення, що штучний інтелект має потенціал заповнити ці прогалини у знаннях. Він не конкретизує, які саме моделі були протестовані дослідниками.
На думку спеціалістів, системи штучного інтелекту можуть допомогти створити біозброю протягом найближчих двох-трьох років. Аналітичний центр провів тестовий сценарій, в якому використовувалась модель ШІ для ідентифікації потенційних біологічних агентів і обговорення їхньої ймовірності спричинити масову загибель людей. У іншому сценарії ця модель оцінювала переваги й недоліки різних механізмів доставлення ботулотоксину. Дослідники зазначають, що ці попередні висновки підтверджують, що моделі ШІ можуть допомогти у плануванні біологічних атак.
Однак дослідники підкреслюють потребу в ретельному тестуванні таких моделей. Вони рекомендують обмежити відкритість цих моделей. Дослідники також закликають до співпраці між урядом та промисловістю для забезпечення безпеки та переваг штучного інтелекту.