Samsung заборонила працівникам використовувати ChatGPT. У чатботі опинився вихідний код
Компанія Samsung забороняє співробітникам використовувати популярні інструменти генеративного штучного інтелекту, такі як ChatGPT, після того, як з'ясувалося, що співробітники завантажували конфіденційний код на платформу. Про це повідомляє Bloomberg.
Компанія стурбована тим, що дані, передані на такі платформи штучного інтелекту, як Google Bard і Bing, зберігаються на зовнішніх серверах, що ускладнює їх пошук і видалення, а також може призвести до того, що вони стануть відомі іншим користувачам.
Минулого місяця компанія провела опитування щодо використання інструментів штучного інтелекту всередині компанії і заявила, що 65% респондентів вважають, що такі сервіси становлять ризик для безпеки. У квітні інженери Samsung випадково виклали внутрішній вихідний код, завантаживши його в ChatGPT. Невідомо, що саме містила ця інформація.
Представник Samsung підтвердив, що минулого тижня було надіслано службову записку про заборону використання сервісів генеративного ШІ. Нові правила Samsung забороняють використання генеративних систем ШІ на комп'ютерах, планшетах і телефонах компанії, а також у її внутрішніх мережах.
Samsung попросила співробітників, які використовують ChatGPT та інші інструменти на персональних пристроях, не надавати жодної інформації, пов'язаної з компанією, або персональних даних, які можуть розкрити її інтелектуальну власність. Компанія попередила, що порушення нових правил може призвести до звільнення.