Anthropic позволит пользователям решать, следует ли использовать их данные для обучения ИИ
Компания Anthropic объявила об обновлении условий использования для потребителей и политики конфиденциальности, которые вступили в силу 28 августа 2025 года. Пользователи могут решить, разрешать ли использование своих данных для обучения Claude и повышения безопасности.
Изменения распространяются на подписчиков платных и бесплатных тарифных планов Claude Free, Pro и Max, включая Claude Code в рамках этих аккаунтов. Обновление не затрагивает продукты с коммерческими условиями использования: Claude for Work, Claude Gov, Claude for Education и API, в том числе через Amazon Bedrock и Google Cloud Vertex AI.
Если пользователь согласится, данные будут храниться до пяти лет для новых и восстановленных чатов. В случае отказа будет действовать стандартный срок в 30 дней, а удаленные чаты не будут использоваться для обучения моделей.
Пользователи, у которых уже есть аккаунты, должны сделать выбор до 28 сентября 2025 года относительно новых условий и обучения моделей. Новые пользователи определят свои предпочтения во время регистрации, а изменить их можно в любое время в настройках конфиденциальности.
Недавно OpenAI и Anthropic протестировали модели друг друга и опубликовали результаты. ИИ-агент Claude запустили в браузере Chrome в тестовом режиме.
Комментарии