ЮНИСЕФ: все больше детей становятся жертвами дипфейков сексуального характера

Миллионы детей и подростков по всему миру становятся жертвами дипфейков. ЮНИСЕФ: все больше детей становятся жертвами дипфейков сексуального характера Права человека
Примерно каждый 25-й ребенок становится жертвой преступников, создающих сексуализированные дипфейки. К такому выводу пришли сотрудники Детского фонда ООН (ЮНИСЕФ), международной организации ECPAT и Интерпола. Они провели совместное исследование в 11 странах.
По меньшей мере 1,2 миллиона детей сказали, что их изображения были обработаны и превращены в сексуально откровенные дипфейки. Чтобы подчеркнуть масштабы проблемы, в ЮНИСЕФ приводят сравнение: это как если бы в каждом классе среди школьников был ребенок, ставший жертвой подобного преступления.
Дипфейки – фотографии, видеоролики или аудиофайлы, созданные или обработанные с помощью искусственного интеллекта (ИИ) и выглядящие или звучащие как настоящие, – все чаще используются для создания сексуализированного контента с участием детей.
Сами дети прекрасно осведомлены об этом риске. В некоторых странах, участвовавших в исследовании, около двух третей детей заявили, что они обеспокоены тем, что ИИ может быть использован для создания поддельных сексуальных изображений или видео.
Создание дипфеков с сексуальным контентом равносильно насилию над детьми, подчеркивают в ЮНИСЕФ. Поддельные видеоролики и фотографии подобного характера нормализуют сексуальную эксплуатацию детей и подпитывают спрос на контент, содержащий насилие.
«ЮНИСЕФ приветствует усилия тех разработчиков ИИ, которые внедряют подходы, основанные на безопасности по умолчанию, и надежные меры защиты для предотвращения неправомерного использования своих систем», – заявили в фонде.
Однако многие модели ИИ разрабатываются без надлежащих механизмов безопасности. Риски могут усугубляться, когда генеративные инструменты ИИ встраиваются непосредственно в платформы социальных сетей, где обработанные изображения быстро распространяются.
ЮНИСЕФ призывает все страны криминализировать создание, приобретение, хранение и распространение контента, сгенерированного с помощью ИИ и содержащего сексуализированные изображения детей.
Разработчики ИИ должны внедрять подходы, обеспечивающие безопасность на этапе проектирования. Все цифровые компании должны предотвращать распространение материалов с изображениями сексуального насилия над детьми, созданных с помощью ИИ, а не просто удалять их после того, как злоупотребление уже произошло, подчеркивают в ЮНИСЕФ.


