РАЭК и Microsoft изучили возможные подходы к разработке этичных решений в области искусственного интеллекта
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
январь    2025
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

показать все 

Новости партнеров

27.12.2024

РАЭК определила лидера среди классифайдов по числу объявлений о долгосрочной аренде

Читать далее 

26.12.2024

За экспертизой в инфобезе — к «Газинформсервису»

Читать далее 

26.12.2024

Компания «ИнфоТеКС» объявляет о выпуске сертифицированной версии ViPNet xFirewall 5.6.2

Читать далее 

19.12.2024

«ГенИИ» завершили год разговором о главной технологии FinTech

Читать далее 

17.12.2024

РДТЕХ внедряет новый премиальный стандарт сервисной поддержки

Читать далее 

показать все 

Статьи

12.12.2024

Что следует учитывать ИТ-директорам, прежде чем претендовать на должность генерального директора?

Читать далее 

11.12.2024

Сетевая инфраструктура, сетевые технологии: что лучше – самостоятельная поддержка или внешнее обслуживание?

Читать далее 

22.11.2024

Тандем технологий – драйвер инноваций.

Читать далее 

21.11.2024

ИИ: маршрут не построен, но уже проектируется

Читать далее 

18.11.2024

Глеб Шкрябин: «Надежные и масштабируемые системы — основа стабильной работы бизнеса в условиях больших нагрузок»

Читать далее 

14.10.2024

Елена Ситдикова: «На разработчиках программного обеспечения для транспорта лежит большая ответственность перед пассажирами»

Читать далее 

13.06.2024

Взгляд в перспективу: что будет двигать отрасль информационной безопасности

Читать далее 

18.04.2024

5 способов повысить безопасность электронной подписи

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

18.04.2024

Неочевидный САПР: выход ПО за рамки конструкторской деятельности

Читать далее 

показать все 

РАЭК и Microsoft изучили возможные подходы к разработке этичных решений в области искусственного интеллекта

Главная / Новости партнеров / РАЭК и Microsoft изучили возможные подходы к разработке этичных решений в области искусственного интеллекта


Использование технологий искусственного интеллекта (далее - ИИ) постепенно переходит из плоскости футурологии в плоскость повседневности. Положительные эффекты от применения ИИ уже сегодня подкреплены множественными практическими примерами. Эксперты и аналитики говорят о позитивном влиянии ИИ на рост стоимости бизнеса и отмечают общественную значимость использования ИИ для решения национальных задач. В IDC ожидают, что по итогам 2021 года объем глобального рынка ИИ, включая ПО, устройства и сервисы, достигнет $341,8 млрд, увеличившись на 15,2% по сравнению с 2020 годом, а к 2024 году преодолеет отметку в $500 млрд. 

 

Чем больше задач делегируется алгоритмам, тем более остро встают вопросы безопасности и ответственного применения систем ИИ. Ответом на вызовы, связанные с использованием ИИ, становятся различные рекомендации, принципы, стандарты и технологические решения, которые призваны снизить уровень существующих рисков и обеспечить эффективную, надежную и безопасную работу алгоритмов.

Проблематике этики ИИ посвящено достаточно большое число работ ведущих экспертов и исследовательских агентств. Например, в базе данных инициативы AlgorithmWatch содержится более 160 документов, описывающих различные подходы к изложению принципов разработки автоматизированных систем принятия решений с соблюдением этических норм. Вместе с тем только 10 из них предлагают практические механизмы реализации данных принципов. Как следствие, большинство этих документов едва ли способно оказать реальное влияние на снижение степени риска. 

В своем исследовании подходов к разработке этичных решений в области ИИ РАЭК и Microsoft сконцентрировали внимание на практических решениях и инструментах, которые могут помочь разработчикам в создании доверенного ИИ (“trustworthy AI”).

Чтобы считаться этичными, системы ИИ должны соответствовать ряду условий. На основе экспертных исследований и обсуждений на различных международных площадках появился определенный контур общих подходов к вопросам этики в области ИИ. Чаще всего такой контур или подходы формализуются в рамках общих принципов или рекомендаций относительно развития ИИ, к которым относятся прозрачность, непредвзятость, подотчетность, приоритет интересов человека и контроль с его стороны, ответственность разработчиков, пользователей и других заинтересованных лиц. Соблюдение данных рекомендаций в совокупности с выполнением требований действующего законодательства и следованием существующим стандартам лежат в основе создания доверенного ИИ.

 

Разработка доверенного ИИ включает в себя применение совокупности принципов, практик и инструментов, которые помогают разработчикам минимизировать риски возникновения негативных последствий использования систем ИИ и создавать этичные, безопасные, прозрачные и подотчетные технологические решения. Применение различных требований и принципов к системам ИИ основывается на риск-ориентированном подходе, при котором к системам с высоким уровнем риска предъявляются повышенные требования. Необходимо отметить, что риск возникновения негативных последствий едва ли возможно устранить полностью, поэтому необходим комплексный подход к выявлению, изучению, измерению, управлению рисками и их минимизации.

 

Начало обсуждения вопросов создания доверенного ИИ является следствием осознания рисков, связанных с использованием технологий ИИ, включая риски дискриминации, необъективности, предвзятости, угрозы конфиденциальности и возникновения ошибок. Выделяется несколько уровней, на которых могут возникнуть ошибки, приводящие к несправедливым, неверным или дискриминирующим результатам работы систем ИИ:

 

  • уровень разработки;
  • уровень обучения алгоритмов;
  • уровень данных для работы алгоритмов;
  • уровень внедрения.

На каждом из этих уровней существуют собственные источники неверных, несправедливых или предвзятых решений. При распространении систем ИИ данные источники могут оказать существенное влияние на сохранение дискриминации и предрассудков, существующих в обществе, а также иметь существенные негативные последствия для лиц, в отношении которых данные системы были использованы.  Поэтому инициативы по снижению рисков принятия таких решений играют важную роль для безопасного и ответственного развития технологий.

Такие инициативы особенно важны сейчас, когда национальное регулирование, направленное на построение этичных систем ИИ, и технологические стандарты в этой сфере пока еще находятся в стадии формирования. 

Одной из таких инициатив является Национальный кодекс этики в сфере искусственного интеллекта, принятый 26 октября 2021 года в России. Собственные рекомендации, принципы и своды правил, добровольное соблюдение которых способствует разработке доверенного ИИ и его ответственному использованию, сегодня разрабатывают все страны, претендующие на лидерство в сфере ИИ. В условиях отсутствия нормативного регулирования подобные документы являются важными инструментами, определяющими рамки разработки и использования ИИ и позволяющими снизить риск возникновения негативных последствий для людей и общества. В этой связи, Национальный кодекс этики в сфере искусственного интеллекта является своевременной и необходимой инициативой, которая, безусловно, окажет стимулирующее воздействие на развитие ИИ-технологий в стране. 

Кодекс включил в себя как общие принципы создания этичного ИИ и его ответственного использования, так и “точечные” рекомендации, направленные на различных участников жизненного цикла систем ИИ. Механизмы реализации Кодекса включают в себя такие актуальные и международно признанные инструменты, как риск-ориентированный подход и создание свода наилучших практик решения возникающих этических вопросов в жизненном цикле ИИ. Несмотря на то, что Кодекс и подобные ему документы не имеют юридической силы, они, тем не менее, могут использоваться как ориентиры на пути к доверенному ИИ.

Изучить подробнее: https://raec.ru/activity/analytics/12732/ 

Актуальность и необходимость создания этического Кодекса для искусственного интеллекта подтверждает запущенные в последние два года инициативы, демонстрирующие заинтересованность в развитии данной отрасли со стороны государства. В частности, утверждена Национальная стратегия развития искусственного интеллекта (2019), запущен федеральный проект “Искусственный интеллект” (2020), большой частью которого является серия хакатонов и лекций по ИИ (2021).

 

 

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №08 (141) 2024г.
Выпуск №08 (141) 2024г. Выпуск №07 (140) 2024г. Выпуск №06 (139) 2024г. Выпуск №05 (138) 2024г. Выпуск №04 (137) 2024г. Выпуск №03 (136) 2024г. Выпуск №02 (135) 2024г. Выпуск №01 (134) 2024г.
Вакансии на сайте Jooble

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика