Интересно

Глава ООН по правам человека: Искусственный интеллект должен основываться на инклюзивности, подотчетности и глобальных стандартах

Верховный комиссар ООН по правам человека Фолькер Тюрк находится в Индии для участия в саммите AI Impact Summit 2026. Глава ООН по правам человека: Искусственный интеллект должен основываться на инклюзивности, подотчетности и глобальных стандартах Автор Аншу Шарма Права человека

Верховный комиссар ООН по правам человека Волкер Тюрк предупредил, что без срочных мер предосторожности ИИ рискует углубить неравенство, усилить предвзятость и нанести вред реальному миру. 

Фолькер Тюрк об ИИ: ключевые моменты

  • Права человека обеспечивают основу для безопасной разработки, проектирования и использования ИИ
  • Влияние ИИ в конечном счете зависит от власти и способов ее осуществления
  • Неравенство, предвзятость и дискриминация являются самыми большими рисками для прав человека, связанными с быстрым распространением ИИ
  • Оценка воздействия на права человека необходима при проектировании, разработке и внедрении ИИ
  • Технологические компании должны следовать принципам ООН в области бизнеса и прав человека
  • Когда разработчикам ИИ не хватает глубокого понимания фундаментальных социальных и этических принципов, которые они должны соблюдать. рискуете создать ”монстра Франкенштейна».

<ширина фрейма=»600″ height=»400″ прокрутка=»нет» рамка =»нет» src=»https://w.soundcloud.com/player/?url=https%3A//api.soundcloud.com/tracks/2269668188&visual=&auto_play=false&hide_related=true&show_artwork=true&show_playcount=false&show_comments=false&show_user=false&show_reposts=false&download=false&buying=false&sharing=false&show_teaser=false&single_active=true&color=%23ff5500″ title=»медиа:soundcloud:872b0c17-c9d0-4884-8a13-05f895a3bde2″>

Выступая на саммите AI Impact Summit в Нью-Дели, г-н Тюрк рассказал Новостям ООН, что в ходе технология должна регулироваться в соответствии с принципами прав человека, которые обеспечивают прозрачность, подотчетность и всеобщее участие.

Это интервью было отредактировано для большей ясности и объема.

Фолькер Тюрк: Искусственный интеллект — это технологический инструмент, и его необходимо разрабатывать на основе оценки рисков. Технологические инструменты используются для осуществления власти, как во благо, так и во зло, поэтому мы должны убедиться, что существуют рамки, в рамках которых они разрабатываются и используются, и именно здесь на первый план выходят права человека.

Новости ООН: Что такое какие самые большие риски для прав человека вы видите в сегодняшнем стремительном распространении искусственного интеллекта?

Фолькер Тюрк: Существует огромная проблема неравенства, и именно поэтому я так рад, что этот саммит по ИИ проходит в Индии. Действительно важно, чтобы эти инструменты использовались повсеместно и чтобы они разрабатывались повсеместно.

Кроме того, существует проблема предвзятости и дискриминации. Если данные будут собираться только из одной части мира, если разработкой ИИ будут заниматься только мужчины, то возникнет неосознанная предвзятость. Мы считаем, что важно помнить об уязвимых группах и меньшинствах, поскольку они часто исключаются из процесса разработки ИИ. Речь идет о значимом участии и представлении видения лучшего мира. Права человека обеспечивают это видение.

Новости ООН: Генеративный ИИ развивается быстрее, чем регулирование. Какие меры предосторожности должны быть приняты правительствами и компаниями в срочном порядке?Фолькер Тюрк:

Возьмем в качестве примера фармацевтическую промышленность: тестирование иногда может длиться долго, потому что вам нужно убедиться, что все риски, связанные с новым продуктом, выявлены до того, как оно начнется продажа. 

Когда речь заходит об инструментах искусственного интеллекта, мы должны требовать от компаний проведения оценки воздействия на права человека при их разработке, внедрении и продвижении на рынок. 

Мы уже довольно давно видим, что у некоторых компаний бюджеты больше, чем у некоторых небольших стран. Если вы в состоянии контролировать технологии не только в своей стране, но и по всему миру, вы обладаете властью. Вы можете использовать эту власть во благо – для того, чтобы делать то, что, как мы надеемся, поможет в таких областях, как здравоохранение, образование и устойчивое развитие, – но вы также можете использовать эту власть и для плохих целей, таких как автоматическое смертоносное оружие и распространение дезинформации, ненависти и насильственного женоненавистничества.

Новости ООН: Какое управление или правила, основанные на ИИ, необходимы, чтобы системы ИИ не усиливали предвзятость и неравенство?

Фолькер Тюрк: У меня была возможность пообщаться с людьми, которые производят эти вещи или разрабатывают их дизайн. Что меня поражает, так это то, что они часто имеют очень поверхностные знания о фундаментальных принципах, когда вступают в фазу разработки.

Это немного напоминает мне монстра Франкенштейна: вы разрабатываете что-то, что больше не контролируете. Вы выпускаете джинна из бутылки.

Если вы не осознаете опасности, вы можете посеять хаос. Мы видели это, например, в Мьянме, где в социальных сетях было много разжигающих ненависть высказываний в адрес рохинджа. 

Очень важно донести точку зрения всех слоев общества, особенно женщин и молодежи, и нужно иметь в виду, что наш мозг развивается по-разному.

Мы не хотим создавать зависимости, которые отравляют наши умы и души. Мы также должны осознавать, насколько вредная дезинформация не только разрушает социальную структуру, но и порождает разногласия и поляризацию в обществе, где каждый живет в своем собственном пузыре.

Мы также видим много женоненавистничества. Многие женщины-политики говорят мне, что подумывают о том, чтобы уйти из политики из-за того, что они видят в социальных сетях. 

Новости ООН: Как, по вашему мнению, будет выглядеть ответственный искусственный интеллект через пять лет?

Фолькер Тюрк:Я надеюсь, что у нас будет всеобъемлющее развитие искусственного интеллекта, когда власть больше не будет сосредоточена в руках горстки компаний в Северной Америке, а развитие ИИ будет основываться на богатстве технологий. и многообразие всех нас в каждом обществе. 

Я надеюсь на инклюзивный, значимый, основанный на широком участии тип развития, который поможет нам решить многие проблемы и вызов в современном мире. Климатический кризис, доступ к здравоохранению, образованию для всех – Искусственный интеллект может стать фантастическим инструментом, помогающим нам достичь этих целей.Обратная сторона заключается в том, что, если мы не будем продвигать концепцию лучшего мира, мы можем в конечном итоге стать еще более поляризованными, и тогда начнутся войны, которые больше не будут контролироваться людьми. И это очень опасно.

Источник

Средний рейтинг
0 из 5 звезд. 0 голосов.