Співробітники Samsung поділилися конфіденційною інформацією з ChatGPT – ЗМІ
Три співробітники корейської компанії Samsung поділилися конфіденційною інформацією з чатботом штучного інтелекту ChatGPT, повідомляє видання The Economist Korea.
Невдовзі після того, як відділ напівпровідників Samsung почав дозволяти інженерам використовувати ChatGPT, працівники принаймні тричі зливали йому секретну інформацію. Один співробітник попросив чатбота перевірити вихідний код конфіденційної бази даних на наявність помилок, інший попросив оптимізувати код, а третій передав записану зустріч у ChatGPT і попросив запротоколювати її.
Звіти свідчать про те, що, дізнавшись про помилки безпеки, Samsung спробувала виправити ситуацію, обмеживши довжину запитів до ChatGPT співробітників одним кілобайтом або 1024 символами тексту. Також повідомляється, що компанія проводить розслідування щодо трьох відповідних співробітників і створює власного чатбота, щоб запобігти подібним історіям.
Політика даних ChatGPT стверджує, що, якщо користувачі явно не відмовляться, він використовує їхні підказки для навчання своїх моделей. Власник чатбота, компанія OpenAI, закликає користувачів не ділитися секретною інформацією з ChatGPT у розмовах, оскільки він "не може видалити певні запити з історії". Єдиний спосіб позбутися особистої інформації в ChatGPT – це видалити обліковий запис. Цей процес може тривати до чотирьох тижнів.