Щороку я читаю доповідь, яка визначає головні тренди, які є у світі. Звертаю увагу на головні небезпеки й інше. Цього року мої друзі та знайомі найбільше мене запитували про штучний інтелект. Чи є в ньому небезпека? В чому вона? Чи буде повстання машин? Я хочу відповісти на декілька з цих запитань.

Це не прості відповіді. Може, я вперше робитиму доповідь, коли я не знаю 100% всіх наслідків того, що ми робимо, того, що з нами відбувається. Дуже тяжко зараз передбачити, що буде, дуже швидко розвиваються сервіси штучного інтелекту.

Чи виживе людство? Не знаю. Це буде залежати від того, що ми розуміємо під словом людство. Якщо почитати письменників-футуристів, то вони давно говорили, що людство як біологічна спільнота може перетворитися на щось інше. Це природний процес, може здаватися, що я розповідаю якісь фантастичні речі, але це не так. Ці процеси вже відбуваються, багато з нас мають якісь протези, імпланти. І це дуже прискорюватиметься.

Компанія Neuralink Ілона Маска зараз створює імплант для головного мозку, який покращить взаємодію мозку людини з комп'ютером. Це трохи перетворить нас на біороботів. І це процес, який ми вже не можемо зупинити.

Зараз триває війна. Будь-який винахід людства використовують в трьох напрямах: це війна, біржа і секс. І будьте впевнені, що штучний інтелект теж буде використаний в цих трьох напрямах. Війна буде першим.

Якщо з інтернетом була інша послідовність, то в штучному інтелекті, найімовірніше, війна буде першим напрямом. Я думаю, що, може, рік, може, два, чи пів року, і ми бачитимемо нове озброєння, яке ухвалюватиме напівавтоматизовані рішення, а потім й зовсім автоматизовані рішення щодо знищення тих чи інших цілей.

Це можуть бути автономні дрони, які не потребують дистанційного керування. Тобто вони можуть вражати ціль, спираючись на свій розсуд, на штучний інтелект, який мають всередині.

Це небезпечна історія. Багато людей кажуть, що це взагалі небезпечно для людства. Я так не вважаю. На мою думку, людство зможе створити певні запобіжники цьому, і як такого повстання машин не буде.

Я вважаю, що небезпека знаходиться в іншому місці. Я колись читав оповідання, може, це був Станіслав Лем. Хтось прилетів на якусь планету, а там всі люди ходили з нашийниками. В кожному був невеличкий запас вибухівки, і навкруги були кнопки, які можна було натискати на певну людину. І якщо якась кількість людей натискала цю кнопку, то нашийник вибухав і людина вмирала.

Зараз в інтернеті такий градус хейту, що ми могли б лишитися без половини Верховної Ради, якби така система в нас була. Я не вважаю, що штучний інтелект призведе до такої ситуації – людство створить запобіжну технологію. Але є інша небезпека зовсім в іншому сенсі.

Якщо подивитися на наше суспільство, на наш розвиток протягом двох або трохи більше тисячоліть, то ми є суспільством, яке керується інформацією. Всі правителі користувалися інформацією для того, щоб ухвалювати певні рішення. Сучасна демократія – це така система, що дозволяє кожному з нас на підставі якоїсь інформації робити якийсь вибір. І тут я вбачаю велику небезпеку щодо штучного інтелекту.

Підписуйтесь на LIGA.Tech в Telegram: головні новини світу технологій

Я не памʼятаю, хто сказав цю фразу, Ньютон чи інший вчений. Ми такі сильні й далекоглядні, тому що стоїмо на плечах гігантів – на плечах поколінь, які творили науку, які шукали інформацію, вивчали світ, передавали ці знання нам за допомогою письменності. 

Я робив презентацію. Мій колега за півтори хвилини за допомогою сервісу штучного інтелекту зробив дві презентації, які зовні виглядали дуже розумно. Я ж свою презентацію створював дві години. Я переглянув презентацію і згадав свої студентські роки, коли ще не було штучного інтелекту, але в мене була така маленька програма "Лабуда". Вона створювала реферати з історії КПРС.

Програма сама задавала якусь тему і могла видрукувати сто сторінок реферату. Він ззовні виглядав буцімто нормально, але якщо почитати сторінку-дві, то ти розумів, що це якась "лобуда", але для цього потрібно було читати. А оскільки реферати з історії КПРС ніхто не писав і ніхто не читав, їх всі у когось передруковували, а професори їх не читали, то це працювало. Створена штучним інтелектом презентація мала якісні думки, я навіть помітив там ті, які здалися мені слушними. Але взагалі це було інформаційне сміття.

Як ви думаєте, як скоро статті в Вікіпедії писатиме штучний інтернет? Я вважаю, що це вже робиться. Ця ера вже настала. Наші знання, які здобувалися поколіннями, тисячоліттями, зараз опиняються в інформаційному смітті. Найбільша небезпека від штучного інтелекту – це будь-яке перетворення інформаційного поля, в якому ми живемо, викривлення цього інформаційного поля. 

В першу чергу в зоні ризику є дві сфери, від яких все залежить. Це сфера політики, тобто того, як ми ухвалюємо рішення про вибір лідерів, які нами керують. Вона буде під тиском штучного інтелекту вже зараз, а через два-три роки це вже буде шалений тиск.

За допомогою штучного інтелекту для кожного з вас можна створити якусь штучну реальність, яка буде для вас персонально сконструйована, і ви бачитимете в інтернеті всі тексти, які персонально під вас модифіковані, щоби маніпулювати вашою думкою.

Й інша сфера дуже небезпечна – це навчання в широкому сенсі. Ми все життя навчаємося. Викривлення інформації, на яку ми спираємося, яку ми вважаємо, істинною, що не підлягає сумнівам. Я не знаю, який відсоток зараз людей вірить в пласку землю, але якщо подивитися TikTok, то дуже багато. І я у своєму житті зустрічав таких людей. Вони зовні нормальні, але вони вірять в якусь нісенітницю, як на мене.

Я вважаю, що це буде великим іспитом для людства. Ми зараз 100% не усвідомлюємо, як це працюватиме. І я вважаю, що у найближчі три-пʼять років ми зіштовхнемося з дуже великими викликами, пов'язаними з цим.