Зміст:
  1. Погода і пішоходи. Що заважає поширенню безпілотних авто
  2. Кібербезпека авто без водія
  3. Дивна поведінка і курйози автономних автомобілів
  4. Аварій стало більше

Авто без водія активно тестують на вулицях найбільших міст світу. А отже, вони повинні вміти взаємодіяти з людьми, водіями та пішоходами, що порушують правила дорожнього руху, ефективно витрачати енергію, орієнтуватися за поганої погоди. Сучасні автобезпілотники поки що не вміють досконало розв'язувати ці проблеми.

Щоб вважатися по-справжньому безпілотним, автомобіль має самостійно аналізувати ситуацію на дорозі, помічати перешкоди та уникати аварійних ситуацій, прораховувати та перебудовувати маршрут без втручання людини.

Liga.Tech зібрала основні проблеми у розробці безпілотних авто, історію аварій та найбільш курйозні випадки з автономними автівками.

Погода і пішоходи. Що заважає поширенню безпілотних авто

У безпілотних автівках широко використовуються три типи сенсорів: камери, лідари (вони за допомогою лазерного променя створюють хмару точок навколо автомобіля) і радари. Всі ці пристрої мають недоліки, і використовувати щось одне на практиці важко. Поки що людина розпізнає об'єкти на дорозі краще, ніж штучний інтелект.

Серед основних проблем, з якими стикається розробка безпілотних авто – обмеження огляду камер, висока вартість лідарів – десятки тисяч доларів та перепони у вигляді поганої погоди. Через останню проблему більшість випробувань проводяться в країнах із теплим кліматом або не в зимову пору року.

Зараз спеціалісти працюють над удосконаленням лазерних датчиків із різною довжиною хвилі, які інженери намагаються змусити бачити крізь сніг. Також розробляється програмне забезпечення, яке дозволить алгоритмам штучного інтелекту відрізняти реальні перешкоди від сніжинок, крапель дощу та інших атмосферних явищ.

Ще одне питання – різниця дорожньої розмітки у країнах та регіонах. Це створює проблему для безпілотних автомобілів, оскільки їх доводиться заново навчати водіння у кожному новому місці.

Кібербезпека авто без водія

Судячи з витоків даних Google, Microsoft, Apple та інших техногігантів, хакери швидко знаходять слабкі місця навіть у найбільш захищених цифрових системах. Крім того, що зловмисники можуть пошкодити цілісність систем управління безпілотними авто, за серйозних хакерських атак такі авто можна перетворити на справжню зброю, яка буде представляти загрозу для оточення.

Дивна поведінка і курйози автономних автомобілів

Waymo

З компанією Waymo, дочірнім проєктом власника Google, за весь час трапилось чимало цікавих історій. Курйозний інцидент стався в місті Чандлер, штат Арізона, влітку 2021 року. Один із безпілотників компанії Waymo застряг на дорозі через ряд конусів. У цей момент у салоні безпілотного таксі перебував пасажир. Він не розгубився і зумів зняти те, що відбувається на відео. Як пише The Verge, спочатку безпілотник застряг на одному з перехресть, а потім спробував "втекти" від фахівців техпідтримки.

Waymo. Фото: EPA

Жителі округу Річмонд у Сан-Франциско розповіли про безпілотні автомобілі компанії Waymo, які з невідомої причини постійно приїжджають на одну і ту ж глуху вулицю. Доїжджаючи до кінця 15-ї авеню, машини затримуються на деякий час, а потім розвертаються і їдуть. Про це повідомив місцевий телеканал KPIX-TV.

Іноді за день у глухий кут стікається до 50 безпілотників, викликаючи питання серед місцевих жителів. Фахівці, які стежать за роботою безпілотних авто, не змогли дати чіткого пояснення цієї загадки.

Навесні 2023 року група автономних таксі Waymo заблокувала житлову дорогу в Сан-Франциско через сильний туман. Пʼять автомобілів зупинилися та припаркувалися посеред дороги з жвавим рухом. Всі автівки були вдосконаленими зразками Jaguar I-Pace. Туман якимось чином збив із пантелику обладнання для самостійного водіння, і система визначила, що продовжувати рух небезпечно.

Підписуйтесь на LIGA.Tech в Telegram: головні новини світу технологій

Tesla

Найбільше своїх клієнтів дивує Tesla. Фірмова автономна система Autopilot сплутала місяць із жовтим сигналом світлофора, через що електрокар намагався знизити швидкість. Як повідомляє видання Autoweek, Tesla оснащена не стандартним Autopilot, а поліпшеною системою Full Self-Driving із розширеним функціоналом, яка вийшла в середині липня 2021 року. Попри назву, яка натякає на повний контроль, автопілот ще потребує доопрацювань.

Аварій стало більше

Tesla є й рекордсменом серед всіх аварій. В огляді від Washington Post йдеться, що за 2021 рік лише безпілотні автомобілі Tesla потрапляли в аварії 273 рази. У статті наводиться цікава статистика: Tesla далеко не єдина компанія, що тестує ШІ-водіїв, але майже 70% аварій (273 із 392 зареєстрованих) з автомобілями, керованими штучним інтелектом, припадає саме на компанію Ілона Маска.

Погіршує ситуацію той факт, що у багатьох випадках учасники ДТП зазнали серйозних травм, а в шести випадках не вдалося уникнути людських жертв. У статті вказується, що, згідно з даними, опублікованими NHTSA (Національна адміністрація безпеки дорожнього руху), з 2016 року до червня 2021 року безпілотні автомобілі Tesla потрапляли в ДТП лише 35 разів, тобто в середньому всього сім разів на рік. За період із червня 2021 року до червня 2022-го сталося 273 аварії, що аж у 39 разів більше.

Викривач компанії Tesla передав німецькому виданню Handelsblatt 100 ГБ даних, що містять тисячі скарг клієнтів, які викликають серйозне занепокоєння щодо безпеки функцій повного самостійного водіння (FSD) Tesla. Скарги, про які повідомлялося зі США, Європи та Азії, охоплюють період із 2015 року до березня 2022-го.

За цей період, за даними Handelsblatt, клієнти Tesla повідомили про понад 2400 проблем із самоприскоренням і 1500 проблем із гальмуванням, включно зі 139 повідомленнями про "ненавмисне екстрене гальмування" і 383 повідомленнями про фантомні зупинки через помилкові попередження про зіткнення. Деякі з інцидентів призвели до ДТП. Документи, отримані виданням, також описують політику Tesla щодо реагування на проблеми, з якими стикаються клієнти, і свідчать про те, що компанія воліє тримати дані про свої транспортні засоби в таємниці.

Помітна аварія сталася в 2018 році у Піттсбурзі (США), коли безпілотний автомобіль Argo потрапив у пригоду на перехресті: в нього врізалася вантажівка, яка проїжджала на червоне світло. У результаті двоє пасажирів безпілотника потрапили до лікарні із травмами середнього ступеня тяжкості.

Чи можна було уникнути цієї аварії, якби за кермом була людина? Чи поставимо питання інакше: наскільки безпечним буде співіснування на дорогах "водіїв зі штучним інтелектом" та водіїв-людей? Питання, на яке поки що немає задовільної відповіді.