Вчені дослідили, чи зможе ШІ самостійно повстати проти людства
Фото: Unsplash

Згідно з новим дослідженням, штучний інтелект не є такою загрозою для людства, як це часто зображають у популярній культурі.  

Читайте про бізнес без політики на каналі LIGA.Бізнес

Вчені з Університету Бат та Технічного університету Дармштадта стверджують, що великі мовні моделі (LLM) не здатні розвивати нові навички самостійно, що робить їх передбачуваними та контрольованими.

Багато хто переживає, що потужні системи ШІ можуть стати неконтрольованими й, можливо, небезпечними. Але дослідники запевняють, що LLM можуть лише виконувати задані їм інструкції та не здатні діяти за межами свого програмного забезпечення. Це означає, що вони не зможуть раптово розвинутися у щось, що перевершить людський інтелект або стане загрозою для людства.

Хоча побоювання щодо того, що ШІ може стати небезпекою, не зовсім безпідставні, на думку науковців, реальна загроза полягає не в самих машинах, а в людях, які їх створюють та контролюють. ШІ вже здатний маніпулювати інформацією, створювати фейкові новини та вводити в оману.