Samsung запретила работникам использовать ChatGPT. В чат-боте оказался исходный код
Компания Samsung запрещает сотрудникам использовать популярные инструменты генеративного искусственного интеллекта, такие как ChatGPT, после того как выяснилось, что сотрудники загружали конфиденциальный код на платформу. Об этом сообщает Bloomberg.
Компания обеспокоена тем, что данные, передаваемые на такие платформы искусственного интеллекта, как Google Bard и Bing, хранятся на внешних серверах, что затрудняет их поиск и удаление, а также может привести к тому, что они станут известны другим пользователям.
В прошлом месяце компания провела опрос по использованию инструментов искусственного интеллекта внутри компании и заявила, что 65% респондентов считают, что такие сервисы представляют риск безопасности. В апреле инженеры Samsung случайно выложили внутренний исходный код, загрузив его в ChatGPT. Неизвестно, что именно содержала эта информация.
Представитель Samsung подтвердил, что на прошлой неделе была отправлена служебная записка о запрете использования сервисов генеративного ИИ. Новые правила Samsung запрещают использование генеративных систем ИИ на компьютерах, планшетах и телефонах компании, а также в ее внутренних сетях.
Samsung попросила сотрудников, использующих ChatGPT и другие инструменты на персональных устройствах, не предоставлять никакой информации, связанной с компанией, или персональных данных, которые могут раскрыть ее интеллектуальную собственность. Компания предупредила, что нарушение новых правил может привести к увольнению.