OpenAI навчила GPT‑5 допомагати користувачам у складних і небезпечних ситуаціях
Ілюстративне фото: (Фото: Depositphotos)

OpenAI заявила про нові заходи безпеки у чат-боті ChatGPT після випадків, коли користувачі зверталися до нього під час психічних криз.

Модель GPT‑5 навчили краще розпізнавати ризики самоушкодження, спрямовувати людей до гарячих ліній допомоги та у критичних випадках передавати інформацію модераторам або навіть правоохоронцям.

Компанія співпрацює з понад 90 лікарями з 30 країн, включно з психіатрами, педіатрами та сімейними лікарями. У США чат-бот спрямовує на гарячу лінію 988, у Великій Британії – до Samaritans, а в інших країнах – до findahelpline.com.

З запуском GPT‑5 точність відповіді на кризові ситуації зросла більш ніж на 25% порівняно з попередньою версією. Новий метод навчання safe completions дає змогу чат-боту надавати корисні, але безпечні поради.

OpenAI працює над захистом під час тривалих діалогів і блокуванням небезпечного контенту. Нові функції включають прямий зв’язок з екстреними службами, швидке повідомлення довірених контактів та спеціальні інструменти для підлітків і батьків, зокрема батьківський контроль і підвищені запобіжники для ризикованого контенту.

Нещодавно генеральний директор OpenAI запропонував для всіх британців. Нагадаємо, що OpenAI представила ChatGPT Go.