Google, OpenAI та інші лідери IT прирівняли штучний інтелект до ядерної зброї
Фото: EPA

Група відомих лідерів галузі зробила заяву з одного речення, яка фактично підтверджує побоювання стосовно штучного інтелекту. Про це повідомляє Engadget.

"Зниження ризику вимирання людства через ШІ має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна", – йдеться у заяві.

Підписуйтесь на LIGA.Tech в Telegram: головні новини світу технологій

Вона була розміщена на сайті Центру безпеки штучного інтелекту – організації, яка ставить собі за мету "зменшити ризики, пов'язані зі штучним інтелектом у масштабах суспільства".

Серед підписантів – відомі представники індустрії штучного інтелекту, зокрема виконавчий директор OpenAI Сем Альтман і керівник Google DeepMind Деміс Хассабіс. Лауреати премії Тьюринга Джеффрі Хінтон і Йошуа Бенгіо, яких багато хто вважає хрещеними батьками сучасного ШІ, також поставили свої підписи під цією заявою.

Хоча ШІ (ймовірно) не є самосвідомим, як дехто побоюється, він уже створює ризики зловживань і шкоди через глибокі підробки, автоматизовану дезінформацію тощо. ШІ також може змінити спосіб виробництва контенту, мистецтва та літератури, що потенційно може вплинути на численні робочі місця.