Anthropic дозволила чат-боту Claude завершувати розмови зі шкідливим контентом
Ілюстративне фото: (Фото: Anthropic)

Компанія Anthropic повідомила про нову функцію у версіях Claude Opus 4 і 4.1. Штучний інтелект тепер може припиняти розмови у чатах з користувачами. Вона призначена для рідкісних випадків, коли користувачі постійно надсилають шкідливі або образливі запити.

Це стосується, зокрема, спроб отримати сексуальний контент із неповнолітніми або інформацію, що могла б призвести до насильства чи терору у великих масштабах.

Як працює нова функція чат-бота Claude ( Фото: Anthropic)
Як працює нова функція чат-бота Claude (Фото: Anthropic)

Опція спрацьовує лише у крайніх випадках. Коли кілька спроб перенаправити розмову не дали результату або коли користувач сам просить завершити чат. Після цього користувач не зможе надсилати нові повідомлення у цій розмові, але зможе одразу почати новий чат. Щоб не втратити важливі розмови, можна редагувати та повторно надсилати попередні повідомлення, створюючи нові гілки закритих чатів.

Під час тестів Claude Opus 4 показав небажання виконувати шкідливі запити і завершував розмови, коли користувачі і далі надсилати шкідливий контент.

Anthropic підкреслює, що більшість користувачів не помітять цю функцію у звичайному використанні, навіть під час обговорення спірних тем. Компанія зазначає, що експеримент із можливістю завершення чатів триватиме, а користувачів закликають залишати відгуки у разі несподіваних дій Claude.

  • Нагадаємо, що Anthropic надасть чатбот Claude усім гілкам влади США за $1 на рік.
  • Anthropic додала пошук з минулих чатів у чатбот Claude. Ці функції доступні користувачам платних тарифів Max, Team та Enterprise.
  • А Siri працюватиме на ChatGPT чи Claude замість власного ШІ.