Google пояснила, чому Gemini зображував нацистів темношкірими та азійцями
Фото: depositphotos

Google заявила, що почала досліджувати й вдосконалювати свою технологію генерації зображень Gemini після того, як виявилися проблеми.

Ця технологія, яка використовується в чатботі, мала створювати різноманітні фотографії людей, але з'ясувалося, що вона не показує достовірне представлення різних етнічних груп. Прабхакар Рагхаван, старший віцепрезидент компанії з питань знань та інформації, заявив, що ці проблеми виникли через недоліки алгоритму, який не враховує контекст і іноді виконує команди неякісно.

Підписуйтесь на LIGA.Tech в Telegram: головні новини світу технологій

Google також намагається зробити так, щоб технологія Gemini не генерувала насильницькі або відверто сексуальні зображення реальних людей. Компанія бере до уваги різні етнічні групи й характеристики людей на зображеннях. Однак, як з'ясувалося, Gemini не видавала результати на запити, які стосуються білих людей.

Крім того, Gemini має проблеми з генерацією історично точних зображень. У разі запиту на зображення німецьких солдатів часів Другої світової війни Gemini генерувала зображення чорношкірих та азійців у німецькій формі. У разі запитів на зображення "батьків-засновників Америки" чатбот показував фотографії кольорових людей, не дотримуючись історичної достовірності. Google заявила, що не мала наміру створювати фотографії з певною політичною або расовою спрямованістю, і обіцяла покращити функціональність Gemini після широкого тестування.

Наразі функція генерації зображень у Gemini вимкнена, і Google очікує на покращення перед поновленням її роботи.