Фото: Unsplash

Модели искусственного интеллекта, на базе которых работают чат-боты, могут использоваться для планирования и осуществления биологических атак. Об этом говорится в отчете аналитического центра Rand Corporation из США.

Исследование показало, что большие языковые модели (LLM) оказались полезными инструментами, но не смогли дать четких инструкций для создания оружия. Отмечается, что предыдущие попытки создать биологических агентов в качестве оружия были неуспешными из-за недостаточного понимания характеристик бактерий, как показала попытка японской секты Аум Синрикё использовать ботулотоксин в 1990-х годах.

Подписывайтесь на LIGA.Tech в Telegram: главные новости мира технологий

Отчет выносит предположение, что искусственный интеллект имеет потенциал восполнить эти пробелы в знаниях. Он не конкретизирует, какие модели были протестированы исследователями.

По мнению специалистов, системы искусственного интеллекта могут помочь создать биооружие в ближайшие два-три года. Аналитический центр провел тестовый сценарий, в котором использовалась модель ИИ для идентификации потенциальных биологических агентов и обсуждения их вероятности повлечь за собой массовую гибель людей. В другом сценарии эта модель оценивала достоинства и недочеты разных устройств доставки ботулотоксина. Исследователи отмечают, что эти предварительные выводы подтверждают, что модели ИИ могут помочь в планировании биологических атак.

Однако исследователи подчеркивают потребность в тщательном тестировании таких моделей. Они рекомендуют ограничить открытость этих моделей. Исследователи также призывают к сотрудничеству между правительством и промышленностью для обеспечения безопасности и преимуществ искусственного интеллекта.

Читайте также