В картинках для обучения ИИ нашли 1 000 изображений детей – жертв сексуального насилия
Фото: Unsplash

В наибольшем наборе данных, который используется для обучения искусственного интеллекта, обнаружили более 1 000 изображений детей, подвергшихся сексуальному насилию. Об этом сообщает 404 Media.

Подписывайтесь на полезный легкий контент в Instagram

Набор данных LAION-5B создан компанией LAION. Набор использовали для обучения Stable Diffusion. Компания подтвердила наличие этих материалов и заявила, что удалила их из онлайн-каналов организации. Проблема заключается в том, что огромные объемы данных затрудняют фильтрацию нежелательного материала, а компании, создающие продукты на основе этих наборов данных, часто игнорируют предупреждения по этическим аспектам. Кроме того, отсутствие надлежащего анализа данных перед их использованием делает чрезвычайно сложным контроль за наличием такого материала.

Подписывайтесь на LIGA.Tech в Telegram: главные новости мира технологий

В LAION сообщили, что удалят набор данных "временно", чтобы удалить содержание сексуального насилия. Однако эксперты из области искусственного интеллекта утверждают, что ущерб уже нанесен, поскольку трудно убедиться, что весь нежелательный материал был удален.

Эксперты говорят, что серьезные изменения в процессе сбора и использования наборов данных ИИ являются необходимостью. Исследователи этики ИИ призывают к полному пересмотру этого вопроса. Но даже после удаления нежелательного материала из наборов данных огромный объем существующих данных усложняет гарантию отсутствия нежелательных материалов.

Читайте также