‘Жестокое обращение с подделками — это жестокое обращение», — предупреждает ЮНИСЕФ
“Вред от злоупотребления deepfake является реальным и неотложным”, — говорится в заявлении агентства ООН. “Дети не могут дождаться, когда закон вступит в силу”.
Согласно исследованию, проведенному в 11 странах агентством ООН, международным полицейским агентством, Интерполом и Всемирной организацией здравоохранения, по меньшей мере, 1,2 миллиона подростков сообщили, что в прошлом году их изображения были подделаны с целью создания откровенных подделок сексуального характера. Глобальная сеть ECPAT работает над тем, чтобы положить конец сексуальной эксплуатации детей во всем мире.
Как показало исследование, в некоторых странах это один из 25 детей или эквивалент одного ребенка в обычном классе.
Содержание
ToggleИнструменты «обнажения»
Фейки – изображения, видео или аудио, созданные или обработанные с помощью искусственного интеллекта и призванные выглядеть реальными, – все чаще используются для создания сексуального контента с участием детей, в том числе с помощью так называемых “обнажение”, при котором инструменты искусственного интеллекта используются для раздевания или изменения одежды на фотографиях с целью создания сфабрикованных изображений обнаженной натуры или сексуализации.
“Когда используется изображение или личность ребенка, этот ребенок становится прямой жертвой. Даже в отсутствие идентифицируемой жертвы материалы о сексуальном насилии над детьми, созданные с помощью искусственного интеллекта, нормализуют сексуальную эксплуатацию детей, повышают спрос на оскорбительный контент и создают серьезные проблемы для правоохранительных органов в выявлении и защите детей, нуждающихся в помощи”, — заявили в ЮНИСЕФ.
“Жестокое обращение — это жестокое обращение, и нет ничего фальшивого в том вреде, который оно причиняет”.
Требование надежных гарантий
Агентство ООН компания заявила, что решительно приветствует усилия тех разработчиков искусственного интеллекта, которые внедряют подходы “безопасность по замыслу” и надежные ограждения для предотвращения неправильного использования своих систем.
Однако реакция на это пока неоднородна, и слишком много моделей ИИ разрабатывается без надлежащих гарантий.
Риски могут усилиться, когда инструменты генеративного ИИ будут внедрены непосредственно в платформы социальных сетей, где быстро распространяются манипулируемые изображения.“Сами дети глубоко осознают этот риск”, — заявили в ЮНИСЕФ, добавив, что в некоторых странах, где проводилось исследование, до двух третей молодых людей заявили, что они обеспокоены тем, что искусственный интеллект может быть использован для создания поддельных сексуальных изображений или видеороликов.
Быстро растущая угроза
“Уровни обеспокоенности в разных странах сильно различаются, что подчеркивает настоятельную необходимость усиления осведомленности, мер профилактики и защиты”.
Чтобы противостоять этой быстро растущей угрозе, агентство ООН выпустило в декабре Руководство по ИИ и детям 3.0 с рекомендациями по политике и системам, которые поддерживают права ребенка. Прочтите полный текст отчетаздесь.
Прямо сейчас ЮНИСЕФ призывает к немедленным действиям, чтобы противостоять растущей угрозе:
- Правительствам необходимо расширить определения материалов о сексуальном насилии над детьми, включив в них контент, созданный с помощью ИИ, и ввести уголовную ответственность за его создание, приобретение, хранение и распространение.
- Разработчики ИИ должны внедрять подходы, основанные на безопасности, и надежные ограждения для предотвращения злоупотреблений ИИ модели
- Цифровые компании должны предотвращать распространение материалов о сексуальном насилии над детьми, созданных с помощью искусственного интеллекта, а не просто удалять их, и усиливать модерацию контента, инвестируя в технологии обнаружения
Читайте последнюю сводку ЮНИСЕФ по Искусственный интеллект и сексуальное насилие и эксплуатация детей здесь.


