Хто насправді писав листа про заборону ШІ, який схвалили Маск та Возняк - переклад VICE
У соцмережах активно обговорюють відкритий лист про "небезпечну" гонку штучного інтелекту (ШІ), який підписали Ілон Маск, Стів Возняк, Ендрю Янг та інші провідні дослідники ШІ.
Видання VICE проаналізувало, хто ще стоїть за цим листом. Liga.Tech публікує переклад цієї статті та пояснює, чому заклики до заборони нових досліджень не вирішують поточних проблем використання ШІ.
Хто стоїть за написанням листа
Понад 30 000 осіб, включно з керівником SpaceX та Tesla Ілоном Маском, співзасновником Apple Стівом Возняком, політиком Ендрю Янгом та кількома провідними дослідниками штучного інтелекту, підписали відкритого листа із закликом на пів року призупинити навчання систем штучного інтелекту, потужніших за GPT-4.
Цей заклик миттєво опинився в центрі бурхливого обговорення, оскільки окремі підписанти змінили свою позицію, деякі підписи виявилися фальшивими, а багато інших дослідників і експертів ШІ відкрито не погодилися з пропозицією та підходом листа.
Лист був написаний Інститутом майбутнього життя (Future of Life Institute), заснованим у 2014 році некомерційною організацією, метою якої є "зменшення глобальних катастрофічних та екзистенційних ризиків від потужних технологій". Серед його засновників – космолог Массачусетського технологічного інституту Макс Тегмарк та співзасновник Skype Яан Таллінн.
До цієї організації входять деякі з найбільших прихильників довготермінізму, своєрідної світської релігії, яка сповідує пошук величезних інвестицій для розв'язання проблем, що постануть перед людьми у далекому майбутньому. Зокрема, інститут зосереджується на пом’якшенні довгострокових "екзистенційних" ризиків для людства, таких як надрозумний штучний інтелект.
Ці ідеї підтримують багато представників технологічної еліти Кремнієвої долини. Наприклад, ексгенеральний директор криптобіржі FTX Сем Бенкман-Фрід, якого звинувачують в обмані інвесторів. Ілон Маск пожертвував $10 мільйонів на цей інститут у 2015 році. Відтоді кожні два роки інститут організовує конференції, які об’єднують провідних розробників штучного інтелекту з наукових кіл та промисловості.
Мета – зупинити перегони між техногігантами
"Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики – керованими. Тому ми закликаємо всі лабораторії штучного інтелекту негайно призупинити принаймні на 6 місяців навчання систем штучного інтелекту, потужніших за GPT-4", — йдеться в листі.
Його автори пропонують розробникам та незалежним експертам використати цю паузу, щоб спільно розробити та впровадити набір спільних протоколів безпеки для просунутого проєктування та розробки ШІ, які ретельно перевіряються та контролюються незалежними сторонніми експертами.
У листі уточнюється, що це не означає призупинення розвитку штучного інтелекту загалом, а просто відхід від небезпечних перегонів. Вочевидь, на увазі мається "гонка озброєнь" між такими великими технологічними компаніями, як Microsoft і Google, які випустили низку нових продуктів ШІ.
Частина підписів – фальшивка, а дехто вже відмовився
Серед інших відомих підписантів – генеральний директор Stability AI Емад Мостак, письменник та історик Юваль Ной Гарарі та співзасновник Pinterest Еван Шарп. Є також кілька людей, які працюють на компанії, що беруть участь у гонці озброєнь ШІ, зокрема Google DeepMind і Microsoft. Ніхто з OpenAI, яка розробляє та комерціалізує серію GP, не підписав листа.
Інститут стверджує, що підписанти були підтверджені як "незалежно перевірені через пряме спілкування".
Проте одразу після публікації в листі все ж виявили декілька фальшивих підписів, зокрема людей, які видавали себе за генерального директора OpenAI Сема Альтмана, президента Китаю Сі Цзіньпіна та головного науковця зі штучного інтелекту Meta Яна Лекуна. Інститут швидко їх видалив і посилив перевірку.
Лист неправильно трактує чужі дослідження
З моменту публікації, лист уважно вивчили багато дослідників штучного інтелекту та навіть ті, хто його підписав.
Гарі Маркус, професор психології та нейронауки в Нью-Йоркському університеті, сказав, що "лист неідеальний, але дух правильний". Подібним чином відреагував Емад Мостак, генеральний директор Stability.AI, який протиставив свою фірму як справді "відкриту" компанію штучного інтелекту, на відміну від OpenAI. Він написав у Твіттері: "Так, я не думаю, що шестимісячна пауза є найкращою ідеєю, або погоджуюсь з усім, але в цьому листі є кілька цікавих речей".
Емілі Бендер, професорка кафедри лінгвістики Вашингтонського університету та співавторка статті, на яку посилаються автори цього заклику, написала у Twitter, що цей відкритий лист наповнений хайпом і неправильно використовує її дослідження.
У листі йдеться: "Системи ШІ з інтелектом, що конкурують із людьми, можуть становити серйозні ризики для суспільства та людства, як показали численні дослідження", але Бендер заперечує, що її дослідження конкретно вказує на великі мовні моделі та їх використання.
Зміст відвертає увагу від поточної шкоди
Саша Лучіоні, науковий співробітник і керівник відділу клімату в Hugging Face, вважає лист надто провокаційним та надто розпливчастим, коли йдеться про усунення проблем, пов’язаних зі штучним інтелектом. Натомість він пропонує вимагати від цих розробок більшої прозорості та правового регулювання.
Арвінд Нараянан, доцент кафедри комп’ютерних наук Принстонського університету, теж вважає, що лист лише створює ажіотаж та ускладнює боротьбу з реальною шкодою ШІ.
"Чи повинні ми автоматизувати всю роботу? Чи повинні ми розвивати нелюдські уми, які з часом можуть перевершити, перехитрити, застаріти та замінити нас? Чи варто ризикувати втратою контролю над нашою цивілізацією?" — запитує відкритий лист.
Нараянан вважає це смішним. Питання про те, чи замінять комп’ютери людей і захоплять людську цивілізацію, є частиною довгострокового мислення, яке відвертає нас від поточних проблем.
Зрештою, ШІ вже інтегрується в робочі місця людей і зменшує потребу в певних професіях, хоча ще не став "надлюдським розумом".
"Я думаю, що це обґрунтовані довгострокові занепокоєння, але вони неодноразово стратегічно розгорталися, щоб відвернути увагу від поточної шкоди, включно з дуже реальними ризиками для інформаційної безпеки та безпеки", – написав Нараянан у Twitter.
"Випадкові люди у технокомпаніях отримують великий вплив"
На пресконференції цієї середи один із відомих підписантів Йошуа Бенджіо — один із перших вчених, які розробили глибоке навчання, — сказав журналістам, що шестимісячна перерва необхідна органам управління, включно з урядами, для розуміння, аудиту та перевірки систем, щоб вони були безпечними для громадськості.
Бенджіо сказав, що зараз існує небезпечна концентрація влади, яка шкідлива для капіталізму, і що інструменти ШІ можуть дестабілізувати демократію. За його словами, існує "конфлікт між демократичними цінностями та тим, як ці інструменти розвиваються".
Його колега Макс Тегмарк, професор фізики Інституту штучного інтелекту та фундаментальних взаємодій (IAIFI) NSF Массачусетського технологічного інституту та президент Інституту майбутнього життя, сказав, що найгірший сценарій полягає в тому, що люди поступово втрачатимуть все більше контролю над цивілізацією. За його словами, нинішній ризик полягає в тому, що ми втрачаємо контроль через купу випадкових людей у технологічних компаніях, які отримують величезний вплив.
Експерти вважають, що ці коментарі лише нагнітають страх та не пропонують жодних конкретних дій за межами шестимісячної паузи. "Іронічно закликати призупинити використання моделей, потужніших за GPT-4, але не враховувати велику кількість проблем, пов’язаних із GPT-4", – підсумовує позицію противників листа Тімніт Гебру, комп’ютерний науковець і засновник Distributed Artificial Intelligence Research Institute.