Зміст:
  1. Корпоративна "Гра престолів"
  2. Нове слово в ШІ чи прототип Скайнету
  3. Ефект Оппенгеймера 

Найвідоміший розробник штучного інтелекту міг опинитись в ситуації, коли одна частина правління хоче за будь-яку ціну зробити науковий прорив, а інша вважає, що грає з вогнем. 

Долучайтесь до нас на Facebook та беріть участь в дискусіях

Скайнет уже поруч. Як засновника OpenAI хотіли звільнити через надто амбіційні експерименти
Сем Альтман. Фото: TechCrunch/Flickr

Liga.Tech розбиралася в хронології події майже відставки Сема Альтмана, чому всіх змусили переживати новини про Q-star та чому вже сьогодні є резон боятись втілення в життя найгірших прогнозів фантастів про роботизований розум. 

Корпоративна "Гра престолів"

Протягом майже тижня в стінах творців відомого чатботу ChatGPT розігрувалася справжня бізнесова драма. Першим її актом стали новини про відставку співзасновника Сема Альтмана з посади СЕО минулої п’ятниці. Причому ініціатором назвали співзасновника OpenAI Іллю Суцкевера, який залучив на свою сторону трьох з шести членів правління компанії.

Пояснили свої мотиви вони максимально розмитим формулюванням "Альтман не завжди був відвертим у спілкуванні з правлінням". Пізніше з’явилась інформація, що істинною причиною такого кроку стала стурбованість Суцкевера і його однодумців тим, що технологія компанії може мати значний ризик, а фронтмен компанії не приділяє цьому належної уваги. 

В другому акті в самій OpenAI та за її межами розігралася справжня буря. Новини про відставку спантеличили колектив та викликали занепокоєння в інвесторів. На знак солідарності з Альтманом у відставку подав президент компанії Грег Брокман. 

За свідченнями інсайдерів, особливо гостро відреагувала корпорація Microsoft, яка інвестувала $13 млрд в OpenAI. Разом з іншими інвесторами вона тиснула на правління розробника ШІ, щоб повернути Альтмана на посаду, але успіху не досягла. Тоді голова техногіганта Сатья Наделла оголосив, що запросив Альтмана і Брокмана очолити їх команду, яка займається розробкою просунутого ШІ. 

Скайнет уже поруч. Як засновника OpenAI хотіли звільнити через надто амбіційні експерименти
Міра Мураті. Скриншот відео Bloomberg

Після бурхливих переговорів Суцкевер заявив, що не змінюватиме свого рішення. Було оголошено, що новим тимчасовим головою OpenAI стане Міра Мураті, яка давно працювала в OpenAI одним з виконавчих керівників. Проте вже через 48 годин стало відомо, що посада перейшла колишньому топменеджеру Twitch Еммету Ширу. 

Вже ранком наступного дня після запрошення від Надели стало відомом, що майже весь колектив OpenAI (близько 800 осіб) висловив зацікавлення в переході до ШІ-команди Microsoft та підписав відповідного листа. Залишитись на поточній роботі вони збирались у разі повернення Альтмана та старої ради правління. 

Висловився і мільярдер Ілон Маск, якого дуже турбує розробка ШІ в стінах компанії, яка може загрожувати людству. Цікаво, що сам СЕО Tesla та SpaceX в минулому був співголовою OpenAI, але покинув компанію через конфлікт інтересів. 

Третій і фінальний акт розгорнувся вже за день, коли було оголошено про "принципову згоду" щодо повернення Альтмана в крісло СЕО. Разом з ним повернувся і Брокман, що було зафіксовано селфі зі співробітниками в офісі OpenAI, викладеному в соцмережі Twitter. 

Натомість з ради правління викинули Іллю Суцкевера, Хелен Тонер і Ташу МакКолі. Єдиним "заколотником", якому вдалося втриматись, став СЕО порталу запитань-відповідей Quorra Адам Д’Анджело. 

Нове слово в ШІ чи прототип Скайнету

У самий розпал управлінської кризи почали з’являтися повідомлення, що яблуком розбрату серед менеджменту стала значно удосконалена модель ШІ під назвою Q-Star (також відома під маркуванням Q*). Нова система нібито вміє самостійно розв'язувати базові математичні задачі. Хоча йдеться про рівень молодшої школи, це вже колосальний прорив у сфері розробки AI.

Річ у тім, що більшість сучасних нейромереж не є штучним інтелектом в класичному розумінні цього терміну. Чатботи аналізують великі обсяги інформації, щоб скомпілювати на їхній основі відповідь на запит користувача. Той самий принцип роботи використовують і різноманітні генератори зображень. Тому якщо поставлена користувачем задача раніше не розв'язувалася чи її згадок немає в мережі, нинішні AI-системи просто не зможуть задовольнити запит користувача. 

Але якщо з’явиться система, яка не шукає відповідь у базах даних, а самотужки розв'язує задачу, – це вже значний стрибок у справі розвитку штучного інтелекту. Навіть якщо йдеться про найпростіші арифметичні задачі. Цей концепт заведено називати сильний штучний інтелект, або artificial general intelligence. Власне, незадовго до історії з відставкою Альтман зазначив в інтерв’ю, що автори ChatGPT досягли ще одного прориву. 

Тема подальшого розвитку ШІ продовжує генерувати серйозні дискусії в науковому середовищі та за його межами. Ентузіасти вважають, що людство перебуває в кроці від найбільшого прориву галузі інформаційних технологій з часів веббраузерів. Але скептики вважають, що розробникам слід пригальмувати, оскільки безвідповідальний поспіх може мати вкрай драматичні негативні наслідки. Система ШІ, здатна вирішувати різноманітні завдання на рівні людського інтелекту або навіть вище, в теорії може цілком спробувати вийти з-під контролю людини або навіть щось гірше. 

Ефект Оппенгеймера 

На раду правління OpenAI могла вплинути історія про неочікувані наслідки експерименту ВПС США з поєднання штучного інтелекту та ударних дронів. В рамках симуляції безпілотник під управлінням ШІ був запрограмований ідентифіковувати ворожу ракету класу "земля-повітря". Проте знищувати цілі він міг лише після команди оператора. 

Під час експерименту оператор декілька разів відмовлявся давати "зелене світло" ШІ на знищення цілі. Це викликало у системи дисонанс, адже за знищення цілі в рамках експерименту вона отримувала бали. Через це ШІ почав сприймати оператора як перешкоду на шляху досягнення мети та спробував його фізично ліквідувати. 

Згодом американські військові розповіли, що це не було якесь фактичне випробування на полігоні, а виключно уявний експеримент. З усім тим, навіть з урахуванням своєї гіпотетичності цей експеримент ілюструє реальні проблеми, що витікають з можливостей ШІ.

Головною перевагою ШІ стане відсутність характерних для людей емоційності та упередженості, які часто заважають людям досягти своєї мети. З іншого, боку машинний розум буде діяти за межами моралі чи етики. 

Тим паче, що військові вже не перший рік цікавляться АІ-розробками в контексті розвитку безпілотної авіації й не тільки. В 2020 році AI взяв гору над пілотом в симуляції повітряного бою на F-16. Також стало відомо, що ВПС США досягли значного прогресу в створенні автономних винищувачів. 

Напрошується припущення, що частина ради директорів OpenAI зіштовхнулась з "моментом Оппенгеймера", коли страх перед негативними наслідками переважає прагнення зробити важливе відкриття. Власне, сам "батько" атомної бомби Роберт Оппенгеймер пізніше виступатиме проти розробки водневої бомби та нерозсудливого накопичення зброї масово ураження. 

Зрештою кожна технологія нагадує медаль з двома боками. Атомна енергетика дозволила людству отримувати величезні об’єми дешевої електроенергії з мінімальною шкодою для екології. Водночас ціна людської помилки та аварії на АЕС вище на порядки в порівнянні з аваріями на ТЕС. Найвідомішими техногенними катастрофами людства стали Чорнобиль та Фукусіма. 

Зрештою, Ілля Суцкевер та колеги могли переоцінити значення Q-Star. Дослідники вважають, що розум навіть невеликих птахів є надто складною і мало дослідженою структурою, тому поява найближчим часом комп’ютерів здатних мислити, усвідомлювати та розв'язувати надскладні задачі поки що залишається цариною наукової фантастики. 

Або ж в недалекому майбутньому люди на радіоактивних пустках будуть згадувати Іллю Суцкевера як людину, що майже завадила катастрофі.