Каждый год я читаю доклад, определяющий основные тренды, которые есть в мире. Обращаю внимание на главные опасности и прочее. В этом году мои друзья и знакомые больше всего меня спрашивали об искусственном интеллекте. Есть ли в нем опасность? В чем же она? Будет ли восстание машин? Я хочу ответить на несколько из этих вопросов.

Это не простые ответы. Может, я буду впервые делать доклад, когда я не знаю 100% всех последствий того, что мы делаем, того, что с нами происходит. Очень тяжело сейчас предположить, что будет, очень быстро развиваются сервисы искусственного интеллекта.

Выживет ли человечество? Не знаю. Это будет зависеть от того, что мы подразумеваем под словом человечество. Если почитать писателей-футуристов, то они давно говорили, что человечество как биологическое сообщество может превратиться в нечто иное. Это естественный процесс, может показаться, что я рассказываю какие-то фантастические вещи, но это не так. Эти процессы уже происходят, многие из нас имеют какие-то протезы, импланты. И это будет очень ускоряться.

Компания Neuralink Илона Маска создает имплант для головного мозга, который улучшит взаимодействие мозга человека с компьютером. Это немного превратит нас в биороботов. И это процесс, который мы не можем остановить.

Сейчас идет война. Любое изобретение человечества используют в трех направлениях: война, биржа и секс. И будьте уверены, что искусственный интеллект тоже будет использован в этих трех направлениях. Война будет первой.

Если с интернетом была другая последовательность, то в искусственном интеллекте скорее всего война будет первым направлением. Я думаю, что может год, может, два или пол года, и мы будем видеть новое вооружение, которое будет принимать полуавтоматизированные решения, а потом и вовсе автоматизированные решения по уничтожению тех или иных целей.

Это могут быть автономные дроны, не требующие дистанционного управления. То есть они могут поражать цель, опираясь на свое усмотрение, искусственный интеллект, который имеют внутри.

Это опасная история. Многие говорят, что это вообще опасно для человечества. Я так не считаю. На мой взгляд, человечество сможет создать определенные предохранители этому, и как такового восстания машин не будет.

Я думаю, что опасность находится в другом месте. Я когда-то читал рассказы, может, это был Станислав Лем. Кто-то прилетел на какую-то планету, а там все люди ходили с ошейниками. В каждом был небольшой запас взрывчатки, и вокруг были кнопки, которые можно было нажимать на определенного человека. И если какое-то количество людей нажимало эту кнопку, то ошейник взрывался и человек умирал.

Сейчас в интернете такой градус хейта, что мы могли бы остаться без половины Верховной Рады, если бы такая система у нас была. Я не считаю, что искусственный интеллект приведет к такой ситуации – человечество создаст технологию защиты. Но есть другая опасность совсем в другом смысле.

Если посмотреть на наше общество, на наше развитие в течение двух или чуть более тысячелетий, то мы являемся обществом, которое управляется информацией. Все правители использовали информацию для того, чтобы принимать определенные решения. Современная демократия – это такая система, которая позволяет каждому из нас на основании какой-либо информации делать какой-либо выбор. И тут я вижу большую опасность искусственного интеллекта.

Подписывайтесь на LIGA.Tech в Telegram: главные новости мира технологий

Я не помню, кто сказал эту фразу, Ньютон или другой ученый. Мы так сильны и дальновидны, потому что стоим на плечах гигантов – на плечах поколений, которые творили науку, искали информацию, изучали мир, передавали эти знания нам с помощью письменности.

Я делал презентацию. Мой коллега за полторы минуты с помощью сервиса искусственного интеллекта сделал две презентации, которые внешне выглядели очень умно. Я свою презентацию создавал два часа. Я просмотрел презентацию и вспомнил свои студенческие годы, когда еще не было искусственного интеллекта, но у меня была такая маленькая программа "Лабуда". Она создавала рефераты по истории КПСС.

Программа сама задавала какую-нибудь тему и могла распечатать сто страниц реферата. Он внешне выглядел вроде бы нормально, но если почитать страницу-две, то ты понимал, что это какая-то "лобуда", но для этого нужно было читать. А поскольку рефераты по истории КПСС никто не писал и никто не читал, их все у кого перепечатывали, а профессора их не читали, то это работало. Созданная искусственным интеллектом презентация имела качественные мнения, я даже заметил там те, которые показались мне правильными. Но вообще это был информационный мусор.

Как вы думаете, когда статьи в Википедии будет писать искусственный интернет? Я считаю, что это уже делается. Эта эра уже наступила. Наши знания, приобретаемые поколениями, тысячелетиями, сейчас оказываются в информационном мусоре. Наибольшая опасность от искусственного интеллекта – это будет преобразование информационного поля, в котором мы живем, искривление этого информационного поля.

В первую очередь в зоне риска есть две сферы, от которых все зависит. Это сфера политики, то есть того, как мы принимаем решение о выборе руководящих нами лидеров. Она будет под давлением искусственного интеллекта уже сейчас, а через два-три года это уже будет безумное давление.

С помощью искусственного интеллекта для каждого из вас можно создать некую искусственную реальность, которая будет персонально сконструирована для вас, и вы будете видеть в интернете все тексты, которые персонально под вас модифицированы, чтобы манипулировать вашим мнением.

И другая сфера очень опасна – это обучение в широком смысле. Мы всю жизнь учимся. Искажение информации, на которую мы опираемся, которую мы считаем, истинной, не подлежит сомнению. Я не знаю, какой процент сейчас людей верит в плоскую землю, но если посмотреть TikTok, то очень много. И я в своей жизни встречал таких людей. Они внешне нормальные, но они верят в какую-то чушь, по-моему.

Я считаю, что это будет большим экзаменом для человечества. Мы сейчас 100% не понимаем, как это будет работать. И я считаю, что в ближайшие три-пять лет мы столкнемся с очень большими вызовами, связанными с этим.