OpenAI заборонила використовувати ChatGPT і Dall-e для дезінформації щодо виборів
Фото: Unsplash

OpenAI оновив свою політику, щоб боротися з поширенням дезінформації під час виборів. Про це повідомляє The Verge.

Долучайтесь до нас на Facebook та беріть участь в дискусіях

Тепер користувачам, зокрема й розробникам ChatGPT і Dall-e, заборонено використовувати інструменти OpenAI для видавання себе за кандидатів або місцеві органи влади, проведення кампаній або лобіювання, а також для перешкоджання голосуванню.

Підписуйтесь на LIGA.Tech в Telegram: головні новини світу технологій

Крім того, OpenAI планує включити цифрові облікові дані Коаліції з перевірки походження та автентичності контенту (C2PA) в зображення, що генеруються Dall-E, щоб полегшити виявлення штучно згенерованих зображень. Інструменти OpenAI також будуть направляти питання про голосування в США на авторитетний сайт CanIVote.org. Однак ефективність цих заходів щодо боротьби з дезінформацією під час виборчого сезону ще незрозуміла. Тому важливо залишатися медіаграмотним і сумніватися у новинах або зображеннях, що виглядають занадто добре, але можуть бути неправдивими.

  • До цього зі сторінки правил використання технологій компанії OpenAI зник рядок про те, що компанія забороняє застосовувати свою технологію у "військових і бойових" цілях.