Содержание:
  1. "Долина разочарования"
  2. Законодательная регуляция ИИ
  3. Появление умных виртуальных помощников
  4. ИИ как угроза безопасности мира

2023 год прошел под знаком генеративного искусственного интеллекта. "GPT-4, громкие анонсы от OpenAI и Microsoft, ряд скандалов полностью изменили отношение людей и бизнеса к ИИ, и эта тенденция продолжится в грядущем году", – считает Александр Краковецкий, гендиректор (CEO) украинской компании DevRain, занимающейся разработкой ПО для искусственного интеллекта (ИИ).

Подписывайтесь на полезный легкий контент в Instagram

Liga.Tech пообщалась с украинскими экспертами и рассказывает, где эту технологию будут использовать в 2024 году, как ИИ будет влиять на производительность нашей работы и может ли он представлять угрозу нашей безопасности.

"Долина разочарования"

Согласно циклу зрелости технологий Gartner, генеративный искусственный интеллект находится на стадии "пика чрезмерных ожиданий", а, следовательно, в следующем году перейдет в "долину разочарования", считает Краковецкий. На практике это будет означать большое количество публикаций об ошибках ИИ, отрицание его интеллекта и потенциального влияния.

Частично этот процесс уже начался. Остается открытым вопрос, выйдет ли генеративный искусственный интеллект в 2024 году на "плато производительности" – стадию, когда технология выходит в массовую промышленную эксплуатацию.

Подписывайтесь на LIGA.Tech в Telegram: главные новости мира технологий

Краковецкий склоняется к мнению, что выхода на плато не произойдет, но не потому, что технология незрелая. Скорее наоборот – могут появиться "черные лебеди". "Это может быть как GPT-5, так и что-то совершенно неожиданное", – говорит специалист.

Один из важных вопросов, по мнению Краковецкого, сможет ли кто-нибудь поколебать технологическое доминирование Microsoft+OpenAI, или их отрыв от конкурентов только увеличится.

Эксперт считает, что Microsoft будет искать варианты диверсифицировать риски – как развивать собственные ИИ-сервисы и модели, так и искать партнерство с потенциальными конкурентами OpenAI.

Законодательная регуляция ИИ

В новом году станет ясно, будут ли ограничивать развитие искусственного интеллекта и если да, то насколько. "Я уже слышал от представителей ЕС о необходимости регуляций. Если они будут слишком жесткими, это может привести к ситуации, когда кто-то из крупных игроков просто отключит свои сервисы для граждан европейских стран, что станет катализатором пересмотра регуляторных практик в странах ЕС", – говорит эксперт.

Появление умных виртуальных помощников

Владимир Бандура, гендиректор (CEO) украинской компании Allbionics.ai, на следующий год выделяет два сценария развития искусственного интеллекта. Первый – консервативный – заключается в активном развитии уже изобретенных решений и подходов в создании систем ИИ.

Имеются в виду интегрированные настройки ИИ, которые уже присутствуют в большинстве инструментов Microsoft и Google Microsoft Office. Об этом говорит и Александр Краковецкий, который назвал 2024-й "годом копилотов" – цифровых ассистентов, которые будут массово появляться как надстройки к действующим программным продуктам.

Объясняем сложные вещи простыми словами – подписывайся на наш YouTube

Владимир Бандура также акцентирует на том, что эти решения изменят процессы работы внутри компании и автоматизируют часть из них.

"Например, корпоративный юрист на подписке, который существует только в цифровом мире, но может посещать встречи, готовить, редактировать, согласовывать документы, консультировать и т.д.", – объясняет эксперт.

По мнению Бандуры, также распространятся умные устройства с ИИ, например, очки, благодаря которым ваш помощник сможет видеть то, что и вы, и помогать в соответствующих контекстах – перевод, навигация, объяснение увиденного, поиск и т.д.

В зависимости от качества реализации и сферы, такие решения смогут поднять производительность специалистов в 3-5-10 раз, считает наш собеседник.

"Но это и не просто возможность. Это как переход от конного транспорта к автомобильному. Ни одна компания не может сказать: меня это не касается, меня и лошади устраивают", – говорит Владимир Бандура.

ИИ как угроза безопасности мира

Второй возможный сценарий Бандура называет "взрывным". Собеседник вспоминает историю об "очень мощном искусственном интеллекте", который создала OpenAI и который якобы стал причиной увольнения гендиректора Сэма Альтмана. "Сложно подтвердить его практические возможности, но такие "сюрпризы" в скачках возможностей ИИ в следующем году вполне возможны", – считает Бандура.

По словам эксперта, последствия могут оказаться неожиданными. Это может как создать чрезвычайно интересные возможности – вроде лекарства для неизлечимых болезней, так и хаос для общества или экономики.

К примеру, если ИИ сможет ломать распространенные алгоритмы шифрования, которыми защищены банки и другие финансовые институты.

Об угрозах со стороны ИИ также говорит Мерле Майгре, экс-глава Центра кибербезопасности НАТО, которая сейчас является старшим экспертом по кибербезопасности в Академии электронного управления Эстонии.

"Прогнозирование конкретных угроз кибербезопасности для отдельного региона или во всем мире очень спекулятивно и на самом деле зависит от обстоятельств. Но есть тенденции, свидетельствующие об активизации рисков от программ-вымогателей, в уязвимостях цепи поставок, в угрозах, управляемых искусственным интеллектом", – рассказала эксперт Liga.Tech.

По ее мнению, государства и бизнес должны вместе решить проблему превращения искусственного интеллекта в оружие – злоумышленники могут использовать его для масштабных кампаний.

Читайте также