ЮНИСЕФ: все больше детей становятся жертвами дипфейков сексуального характера
Интересно

ЮНИСЕФ: все больше детей становятся жертвами дипфейков сексуального характера

ЮНИСЕФ: все больше детей становятся жертвами дипфейков сексуального характера

Миллионы детей и подростков по всему миру становятся жертвами дипфейков. ЮНИСЕФ: все больше детей становятся жертвами дипфейков сексуального характера Права человека

Примерно каждый 25-й ребенок становится жертвой преступников, создающих сексуализированные дипфейки. К такому выводу пришли сотрудники Детского фонда ООН (ЮНИСЕФ), международной организации ECPAT и Интерпола. Они провели совместное исследование в 11 странах.

По меньшей мере 1,2 миллиона детей сказали, что их изображения были обработаны и превращены в сексуально откровенные дипфейки. Чтобы подчеркнуть масштабы проблемы, в ЮНИСЕФ приводят сравнение: это как если бы в каждом классе среди школьников был ребенок, ставший жертвой подобного преступления.

Дипфейки – фотографии, видеоролики или аудиофайлы, созданные или обработанные с помощью искусственного интеллекта (ИИ) и выглядящие или звучащие как настоящие, – все чаще используются для создания сексуализированного контента с участием детей.

Сами дети прекрасно осведомлены об этом риске. В некоторых странах, участвовавших в исследовании, около двух третей детей заявили, что они обеспокоены тем, что ИИ может быть использован для создания поддельных сексуальных изображений или видео.

Создание дипфеков с сексуальным контентом равносильно насилию над детьми, подчеркивают в ЮНИСЕФ. Поддельные видеоролики и фотографии подобного характера нормализуют сексуальную эксплуатацию детей и подпитывают спрос на контент, содержащий насилие.

«ЮНИСЕФ приветствует усилия тех разработчиков ИИ, которые внедряют подходы, основанные на безопасности по умолчанию, и надежные меры защиты для предотвращения неправомерного использования своих систем», – заявили в фонде.

Однако многие модели ИИ разрабатываются без надлежащих механизмов безопасности. Риски могут усугубляться, когда генеративные инструменты ИИ встраиваются непосредственно в платформы социальных сетей, где обработанные изображения быстро распространяются.

ЮНИСЕФ призывает все страны криминализировать создание, приобретение, хранение и распространение контента, сгенерированного с помощью ИИ и содержащего сексуализированные изображения детей.

Разработчики ИИ должны внедрять подходы, обеспечивающие безопасность на этапе проектирования. Все цифровые компании должны предотвращать распространение материалов с изображениями сексуального насилия над детьми, созданных с помощью ИИ, а не просто удалять их после того, как злоупотребление уже произошло, подчеркивают в ЮНИСЕФ.

Источник

Средний рейтинг
0 из 5 звезд. 0 голосов.