Anthropic дозволить користувачам вирішувати, чи використовувати їхні дані для навчання ШІ

Компанія Anthropic оголосила про оновлення умов користування для споживачів і політики конфіденційності, які почали діяти 28 серпня 2025 року. Користувачі можуть вирішити, чи дозволяти використання своїх даних для навчання Claude і підвищення безпеки.
Зміни охоплюють передплатників тарифів Claude Free, Pro та Max, включно з Claude Code у межах цих акаунтів. Оновлення не стосуються продуктів із комерційними умовами: Claude for Work, Claude Gov, Claude for Education та API, зокрема через Amazon Bedrock і Google Cloud Vertex AI.

Якщо користувач погодиться, дані зберігатимуться до п’яти років для нових і відновлених чатів. У разі відмови діятиме стандартний термін у 30 днів, а видалені чати не потраплять у навчання моделей.
Користувачі, які вже мають акаунти, повинні зробити вибір до 28 вересня 2025 року щодо нових умов і навчання моделей. Нові користувачі визначатимуться під час реєстрації, а змінити можна будь-коли в налаштуваннях приватності.
Нещодавно OpenAI та Anthropic протестували моделі одна одної й оприлюднили результати. Агента ШІ Claude запустили у браузері Chrome у тестовому режимі.
Коментарі (0)