Facebook будет удалять изображения, на которых люди калечат себя
Социальная сеть Facebook будет удалять изображения, на которых люди сами себя калечат, сообщает The Guardain.
Компания пошла на такой шаг после критики своих правил модерации вредоносного контента.
Facebook имеет команду модераторов, которая следит за контентом и фильтрует, к примеру, прямые трансляции насильственных действий или самоубийств. Для модерации компания работает с пятью аутсорсинговыми поставщиками услуг минимум в восьми странах.
"С апреля по июнь 2019 года в Facebook мы отфильтровали более 1,5 миллиона различного контента относительно самоубийства и нанесение себе людьми травм. 95% из этого количества мы обнаружили еще до того, как нам сообщили об этом другие пользователи. В Instagram мы приняли меры по более 800 тыс такого контента. 77% было убрано до представления нам жалобы", - сообщил Facebook в своем блоге.
- Ранее мы писали о том, сколько денег выделит Facebook для борьбы с фейковыми видео.