Google, OpenAI и другие лидеры IT приравняли искусственный интеллект к ядерному оружию
Фото: EPA

Группа известных лидеров отрасли сделала заявление из одного предложения, фактически подтверждающее опасения относительно искусственного интеллекта. Об этом сообщает Engadget.

"Снижение риска вымирания человечества из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война", – говорится в заявлении.

Подписывайтесь на LIGA.Tech в Telegram: главные новости мира технологий

Она была размещена на сайте Центра безопасности искусственного интеллекта – организации, которая ставит своей целью "уменьшить риски, связанные с искусственным интеллектом в масштабах общества".

Среди подписантов – известные представители индустрии искусственного интеллекта, в том числе исполнительный директор OpenAI Сэм Альтман и руководитель Google DeepMind Демис Хассабис. Лауреаты премии Тьюринга Джеффри Хинтон и Йошуа Бенгио, которых многие считают крестными отцами современного ИИ, также поставили свои подписи под этим заявлением.

Хотя ИИ (вероятно) не является самосознательным, как некоторые опасаются, он уже создает риски злоупотреблений и вреда из-за глубоких подделок, автоматизированной дезинформации и т.д. ИИ также может изменить способ производства контента, искусства и литературы, что может повлиять на многочисленные рабочие места.

Читайте также