25.02.2019, 09:30

Машина хитрей человека. Как нейросети научились нас обманывать

Фото - pixabay.com

Тексты, фото, видео, голос и даже искусство: что научился подделывать ИИ за поледние пару лет

Фейки захватывают мир, а роботы им в этом помогают. Люди учат искусственный интеллект делать множество вещей: определять заболевания, оценивать склонность людей к совершению преступлений, искать злоумышленников, переводить тексты, улучшать фотографии, формировать новостную ленту, строить маршруты и т.д. Но не все, что умеет искусственный интеллект, ипользуется для пользы.

Многие его навыки ускоряют и удешевляют создание фейков. Как то было с порновидео с участием якобы звезд. А ведь какой-то умелец просто создал алгоритм, позволяющий почти незаметно заменять на видео лица одних людей другими. 

LIGA.net описала, чему научился искусственный интеллект за последние пару лет. 

Фейковые тексты

Некоммерческая компания OpenAI, основанная Илоном Маском, создала нейросеть GPT-2, способную самостоятельно писать тексты на заданную тему. Ее натренировали на восьми миллионах веб-страниц. А ее цель - предсказать следующее слово, учитывая контекст.

Пользователь должен написать вводный тезис, который может состоять буквально из одного предложения. GPT-2 адаптируется под его стиль и содержание и выдает довольно неплохой текст по теме.

Машина хитрей человека. Как нейросети научились нас обманывать

Для получения хорошего образца GPT-2 требуется несколько попыток. А их количество зависит от темы - лучше всего нейросеть справляется с популярными темами (Brexit, Майли Сайрус, «Властелин колец» и т.д.).

В OpenAI выделяют несколько областей, где технология может быть полезна:

  • помощь в написании текстов;

  • усовершенствование машинного перевода;

  • улучшение систем распознавания речи.

Однако существуют и опасения ее использования. Сами создатели решили не публиковать полную версию GPT-2 из-за возможного использования ее для обмана:

  • создание ложных журналистских материалов;

  • выдавание себя за других в интернете;

  • автоматизация создания оскорбительного или ложного контента для соцсетей;

  • автоматизация создания спама и фишинга.

Фейковые фото

Человечество стало с подозрением относиться к фото еще с появлением Фотошопа. И, в общем, ИИ не делает чего-то более особенного. Кроме того, что создает фейковые фото самостоятельно и за секунду.

Например, на сайте thispersondoesnotexist.com можно посмотреть, как искусственный интеллект Nvidia генерирует лица несуществующих людей. И делает это настолько реалистично, что мурашки бегут по коже.

Машина хитрей человека. Как нейросети научились нас обманывать

Более того, разработчики стали брать код Nvidia на Github и применять его к другим объектам.

Так появился ИИ, который генерирует несуществующих котов: thiscatdoesnotexist.com и thesecatsdonotexist.com

Машина хитрей человека. Как нейросети научились нас обманывать

Искусственный интеллект, создающий несуществующие аниме-лица: thiswaifudoesnotexist.net

Машина хитрей человека. Как нейросети научились нас обманывать

И даже ИИ, который генерирует несуществующие объявления Airbnb: thisairbnbdoesnotexist.com

Машина хитрей человека. Как нейросети научились нас обманывать

Последнее генерирует изображения комнат, имя и лицо хозяина, а также описание локации. Создатель этого сайта - инженер - объяснил, что сделал этот проект без какого-либо опыта работы с нейронными сетями. Он хотел показать, что любой, у кого есть пара свободных часов, может создать нечто похожее. То, что сможет обмануть беглый взгляд человека.

Верить нельзя даже фотографиям еды, которые ИИ научился создавать, считывая рецепты.

Машина хитрей человека. Как нейросети научились нас обманывать

 

Фейковые видео

В конце позапрошлого года мир впечатлился алгоритмом, который позволял заменять лица актрис в порнороликах на лица других людей, например, знаменитостей. С того времени начали активно появляться разработки для создания фейковых видео. Не менее впечатляющие.

К примеру, инструмент Deep Video Portraits, который способен переносить мимику одного человека на лицо другого. По мнению критиков, он может вполне использоваться для создания фейковых новостей.

Любой человек может записать свой видеопортрет с речью и загрузить ролик в программу. Она проанализирует мимику и применит ее к видеозаписи с любым другим человеком. Так можно создавать реалистичные видео, на которых говорят Барак Обама или Владимир Путин, например.

Создатели признают опасность своей разработки. Но надеются, что она будет использоваться для прикладных задач: например, адаптации движения губ актеров в процессе перевода фильмов на другие языки.

Тут также стоит вспомнить первого искусственного телеведущего, которого создало китайское новостное агентство, чтобы быстрее создавать новостные выпуски. Недавно также появилась искусственная телеведущая.

Фейковый голос

В последние годы технология синтеза речи значительно продвинулась, и нейронные сети DeepMind особенно хорошо работают над созданием реалистичных, похожих на человеческие голосов.

Когда вы слышите подсказки Google Maps в своем автомобиле, получаете ответы от системы умного дома или слышите устный перевод в Google Translate, вы используете технологию синтеза речи Google или технологию преобразования текста в речь (TTS). Речевые интерфейсы позволяют не только естественным и удобным образом взаимодействовать с цифровыми устройствами, но и являются важнейшей технологией для обеспечения универсального доступа к информации. Ведь TTS открывает интернет для миллионов пользователей по всему миру, которые могут быть не в состоянии читать или имеют нарушения зрения.

Как и в случае с любой другой технологией, “искусственной речью” можно злоупотреблять. Еще в апреле 2017 года канадский стартап Lyrebird анонсировал первый в мире сервис, с помощью которого можно подделать голос любого человека. Для обучения системы достаточно минутного образца. С того времени таких сервисов появилась масса.

Злоумышленники, используя нейросети, уже могут синтезировать речь, чтобы попытаться обмануть системы голосовой аутентификации. Или они могут создать поддельные аудиозаписи, чтобы опорочить общественных деятелей.

Как такого не допустить? Нужно тренировать алгортимы-распознаватели фейковых голосов. Так, компания GNI выпустила подборку синтетической речи, содержащую тысячи фраз, произнесенных с помощью моделей преобразования текста в речь (TTS). Подборка содержит 68 синтетических «голосов» с различными региональными акцентами, они начитывают статьи из английских газет.

Этот набор данных доступен для участников конкурса ASVspoof. Его цель - создание механизма противодействия поддельной речи. Обучая алгоритмы как реальной, так и компьютерной речи, участники ASVspoof могут разработать системы, которые научатся различать их. Результаты будут объявлены в сентябре на конференции Interspeech 2019 в Граце, Австрия.

Фейковое искусство

Несколько лет назад на IT-конференции во Львове группа разработчиков продемонстрировала стартап - программу, которая создает абстрактные картины. Создатели говорили, что их продукты могут пригодиться, например, в обустройстве интерьеров ресторанов, гостиниц и других общественных мест. И сформировали огромную библиотеку искусственно сгенерированных абстракций.

Тогда еще никто подумать не мог, что AI претендует на труд художников и будет рисовать такие картины, которые не отличишь от шедевров мастеров своего дела.

Но в  прошлом году кошмар художника стал реальностью. Картина «Портрет Эдмонда де Белами», созданная с использованием ИИ, была продана на аукционе Christie's в Лондоне за $432 000, более чем в 40 раз превысив ожидания. Предполагалось, что она принесёт от $7000 до $10 000.

Машина хитрей человека. Как нейросети научились нас обманывать

«Портрет Эдмонда де Белами» был сгенерирован с помощью алгоритма машинного обучения), который был разработан парижским арт-коллективом «Obvious». В процессе создания портрета алгоритм использовал базу данных из 15 000 картин, написанных в XIV-XX веках.


корреспондент ЛІГА.Tech
Маша Ксендзик

редактор ЛІГА.Tech
Стас Юрасов
Если Вы заметили орфографическую ошибку, выделите её мышью и нажмите Ctrl+Enter.
ПОСЛЕДНИЕ НОВОСТИ