Anthropic дозволить користувачам вирішувати, чи використовувати їхні дані для навчання ШІ
Логотип чат-бота Claude на смартфоні (Фото: Depositphotos)

Компанія Anthropic оголосила про оновлення умов користування для споживачів і політики конфіденційності, які почали діяти 28 серпня 2025 року. Користувачі можуть вирішити, чи дозволяти використання своїх даних для навчання Claude і підвищення безпеки.

Зміни охоплюють передплатників тарифів Claude Free, Pro та Max, включно з Claude Code у межах цих акаунтів. Оновлення не стосуються продуктів із комерційними умовами: Claude for Work, Claude Gov, Claude for Education та API, зокрема через Amazon Bedrock і Google Cloud Vertex AI.

Нові умови використання чат-бота Claude ( Фото: Anthropic)
Нові умови використання чат-бота Claude ( Фото: Anthropic)

Якщо користувач погодиться, дані зберігатимуться до п’яти років для нових і відновлених чатів. У разі відмови діятиме стандартний термін у 30 днів, а видалені чати не потраплять у навчання моделей.

Користувачі, які вже мають акаунти, повинні зробити вибір до 28 вересня 2025 року щодо нових умов і навчання моделей. Нові користувачі визначатимуться під час реєстрації, а змінити можна будь-коли в налаштуваннях приватності.

Нещодавно OpenAI та Anthropic протестували моделі одна одної й оприлюднили результати. Агента ШІ Claude запустили у браузері Chrome у тестовому режимі.