Зачем компьютеру этика?::БИТ 03.2019
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
декабрь    2024
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

показать все 

Новости партнеров

27.12.2024

РАЭК определила лидера среди классифайдов по числу объявлений о долгосрочной аренде

Читать далее 

26.12.2024

За экспертизой в инфобезе — к «Газинформсервису»

Читать далее 

26.12.2024

Компания «ИнфоТеКС» объявляет о выпуске сертифицированной версии ViPNet xFirewall 5.6.2

Читать далее 

19.12.2024

«ГенИИ» завершили год разговором о главной технологии FinTech

Читать далее 

17.12.2024

РДТЕХ внедряет новый премиальный стандарт сервисной поддержки

Читать далее 

показать все 

Статьи

12.12.2024

Что следует учитывать ИТ-директорам, прежде чем претендовать на должность генерального директора?

Читать далее 

11.12.2024

Сетевая инфраструктура, сетевые технологии: что лучше – самостоятельная поддержка или внешнее обслуживание?

Читать далее 

22.11.2024

Тандем технологий – драйвер инноваций.

Читать далее 

21.11.2024

ИИ: маршрут не построен, но уже проектируется

Читать далее 

18.11.2024

Глеб Шкрябин: «Надежные и масштабируемые системы — основа стабильной работы бизнеса в условиях больших нагрузок»

Читать далее 

14.10.2024

Елена Ситдикова: «На разработчиках программного обеспечения для транспорта лежит большая ответственность перед пассажирами»

Читать далее 

13.06.2024

Взгляд в перспективу: что будет двигать отрасль информационной безопасности

Читать далее 

18.04.2024

5 способов повысить безопасность электронной подписи

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

18.04.2024

Неочевидный САПР: выход ПО за рамки конструкторской деятельности

Читать далее 

показать все 

Зачем компьютеру этика?

Главная / Архив номеров / 2019 / Выпуск №03 (86) / Зачем компьютеру этика?

Рубрика: Цифровая трансформация


Алексей ЛагутенковMBA Kingston University UK, ITSM Manager, MCSE+I, MCSE:S:M, MCDBA, MCDST

Зачем компьютеру этика?

Зачем компьютеру этика?Массачусетский технологический институт озаботился проблемой технарей и гуманитариев. Правда, сделали они это несколько со своей, «инженерной», точки зрения. Президент MIT Рафаэль Рейф заявил, что «миру нужны билингвы» [1], то есть инженеры с хорошим знанием гуманитарных наук, способные создавать этически верные продукты и платформы

Условное разделение на гуманитариев и технарей существовало, вероятно, с начала истории человечества. Кому-то хорошо давалась музыка, другие умели строить эффективные ловушки для охоты на мамонтов. Почему именно сейчас такое разделение перестало устраивать ведущую научную организацию мира?

Началось все со статьи Генри Киссинджера, опубликованной в июне 2018 года в «The Atlantic» [2], где бывший советник по национальной безопасности и госсекретарь США заявил: «Эпоха Просвещения началась с философских идей, распространяемых с помощью новой технологии. Наш период движется в противоположном направлении. Это породило потенциально доминирующую технологию в поисках руководящей философии».

Киссинджер говорит об искусственном интеллекте (ИИ) как о современной доминирующей технологии. Наверное, никто не будет спорить, что это явление меняет общество. Отмирают целые группы профессий, меняется рынок труда, перестраиваются экономические и финансовые модели целых стран.

Кто стоит за этими изменениями? Хотелось бы, чтобы это был гениальный стратег, в полной мере осознающий и учитывающий возможности и угрозы новой технологии и использующий ее во благо общества. Однако что-то мне подсказывает, что не существует никакого стратега-супергероя, а все события происходят спонтанно, беспорядочно, не повинуясь ничьему замыслу.

ИИ – продукт деятельности нескольких групп талантливых инженеров, которые решают узкие, чисто технические задачи. Этих людей, вероятно, в принципе не интересуют изменения в обществе, к которым может привести повсеместное использование их креатива.

Может быть, маркетологи или советы директоров тех компаний, где работают столь выдающиеся технари, как-то озабочены глобальными изменениями? Вряд ли. Нет, в отчетах этих компаний, безусловно, прописаны забота об экологии и заложены расходы на благотворительность. Однако цели современных корпораций совсем другие. Решение локальных бизнес-задач, завладение новыми секторами рынка и получение максимально возможной прибыли – вот это больше похоже на правду. Однако компаниям-гигантам совершенно незачем искать подвох в собственных перспективных разработках и думать об их негативном влиянии на социум.

Мыслить глобально, «в целом», не привязываясь к конкретному содержанию, – во все времена это была задача гуманитариев. Визионерская деятельность: придумать концепцию, разработать стратегию – на этом поле гуманитарии-философы играли особенно хорошо. Качественный подход в противоположность к количественному, числовому, давал до недавнего времени возможность придумывать решения, которые не существовали до того, как в эту область пришел гуманитарий.

Конечно же, интуитивные концепции иногда выглядели наивно, но никто и никогда до этих людей не придумывал ничего подобного. Хороший пример – творчество великого визионера научно-технического прогресса писателя Жюля Верна. Благодаря ему технари-инженеры всего мира вдохновились идеями полетов на Луну, подводного плавательного аппарата, вертолета и т.д. Разумеется, современные подводные лодки или космические корабли не имеют ничего общего с описанными им в XIX веке конструкциями, но он тот, кто сказал: «Это можно сделать!»

ИИ – продукт деятельности нескольких групп талантливых инженеров, которые решают узкие, чисто технические задачи. Этих людей, вероятно, в принципе не интересуют изменения в обществе, к которым может привести повсеместное использование их креатива

Современный мир испытывает острую нехватку таких Жюлей Вернов, не знает, куда двигаться и что «можно сделать». На то есть причины. Вдохновение великого французского писателя опиралось на простые и понятные технологии XIX века. Для их понимания вполне было достаточно курса школьной физики, химии, математики. Современные концепции ИИ и параллельных технологий так просто не понять. Кроме того, нынешняя система образования, похоже, за этими новыми технологиями просто не успевает. У визионера – гуманитария нашего времени – нет и не может быть понимания возможностей ИИ и, что гораздо печальней, нет возможности такое понимание где-то приобрести.

Сейчас место визионеров занимают инженеры и их модели ИИ. Некоторые критики уже указывают на неправильность такого подхода. Известная предприниматель и ученый из Кремниевой долины нейробиолог-теоретик Вивьен Минг сомневается, что молодым технарям без богатого жизненного опыта вообще следует доверять решение каких-либо глобальных или этически сложных проблем [3].

В случае применения ИИ для решения подобной задачи, так или иначе связанной с людьми или социальной ответственностью, инженеров интересуют только технические подробности. Например, правильное обучение нейронной сети на статистически верном, большом объеме данных. Разработчики предполагают, что, если система была обучена правильно, дальше все заработает само. Технически они правы, но, как всегда, есть «но».

В 2015 году в одной из крупнейших компаний мира Amazon случился скандал весьма интересной природы [4]. Компания, имеющая в штате более полумиллиона сотрудников, решила разработать и внедрить HR-систему автоматизированного найма сотрудников на базе ИИ, которая бы анализировала резюме потенциальных кандидатов и отбирала среди них «лучших из лучших». Программа должна была выставлять оценки будущим потенциальным сотрудникам в соответствии с тем, насколько они подходят на предполагаемое место работы.

На первый взгляд «искусственный HR» показал отличный результат, выбирая из нескольких сотен резюме пятерку действительно выдающихся, практически идеальных кандидатов. Однако чуть позже были выявлены некоторые странности в работе системы. Заключались они в том, что ИИ полностью игнорировал женщин при отборе на любые технические специальности. Более того, если программа встречала в резюме слово «woman» в любом контексте, она автоматически снижала оценку кандидатки так, чтобы она гарантированно не смогла устроиться на работу, связанную с ИТ.

Разумеется, такая избирательность ни в коем случае не закладывалась в систему разработчиками. Объяснение нашлось через некоторое время. ИИ обучался на массивах данных, основанных на резюме действующих сотрудников Amazon, где большинство должностей, связанных с ИТ, занимали мужчины. Соответственно, HR-алгоритм принял единственное логичное для него решение в такой ситуации: женщины не могут и не должны работать на технических специальностях просто потому, что такого не было и не может быть никогда, об этом говорит набор данных для обучения. Единственный кандидат на техническую должность в ИТ-секторе –только мужчина.

В нашей стране борьба за равноправие полов при приеме на работу не так заметна. Другое дело США! В скандале не поучаствовали только очень ленивые феминистки, а в Amazon были вынуждены вообще свернуть работу над «сексистским искусственным интеллектом».

Если оставить в стороне вопрос половой дискриминации и посмотреть на ситуацию максимально непредвзято, что произошло? С точки зрения логики, ИИ в проекте HR Amazon сработал абсолютно корректно. Проблемы лежат в совершенно другой плоскости – этике. Найти виноватых в провале проекта невозможно. Инженерам никто и не ставил задачу, чтобы робот-HR работал этично.

Уже сейчас во всем мире ведутся разработки новых программ, которым предстоит оценить или рассортировать большие группы людей по каким-либо признакам. Предположим, есть группа людей с неким сходным признаком, которая никогда не покидала границ своей страны. Следует ли отдельно взятому представителю такой группы выдавать загранпаспорт? Можно ли выдавать визу человеку, который по формальным критериям ИИ может оказаться потенциальным нарушителем иммиграционного режима?

Гуманитарии и инженеры должны стать билингвами, одинаково хорошо разбирающимися как в социальных и общественных науках, этике, так и в новейших направлениях программирования и обработки данных

Нет, сейчас этот товарищ еще ничего не совершил и ничего не нарушил, но паттерн его профиля для ИИ выглядит так, что вообще он мог бы. И это вам не кредитная инспекция, где банк вполне имеет право отказать в кредите любому заемщику на основании внутренних убеждений. Право свободного перемещения гарантировано Конституцией и допустимо ли в принципе, чтобы ИИ посягал на это право? То есть существует реальная, ненулевая вероятность, что в результате применения алгоритмов ИИ для сортировки групп людей чьи-то права будут обязательно ущемлены, а чувства – оскорблены.

Возникает вопрос: как правильно сформулировать техническое задание (ТЗ) для инженеров так, чтобы результатом работы ИИ не стала сегрегация по какому-либо признаку? Можно ли как-то заранее заложить принципы этичного поведения в ИИ, чтобы избежать любой возможной дискриминации? Вероятно, можно, но потребуются особые программисты, которые социализированы, небезразличны к гуманизму и его ценностям, интересующиеся устройством общества, политикой и экономикой. Существуют ли такие специалисты?

Вряд ли на этот вопрос сегодня можно дать какой-то однозначный ответ. Есть инженеры, которые могут реализовать грамотно поставленное ТЗ. Если в документации будут четко и корректно прописаны все критерии проявления дискриминации, ее признаки и свойства, а также действия алгоритма на этот случай, то, скорее всего, получившийся ИИ будет в некоторой степени этичным.

Другой вопрос: кто будет писать такое ТЗ? Описание этики, во-первых, должно быть понятным для программистов, а во-вторых, в этом описании придется учесть совершенно безумную динамику социума современного мира, где на проявления дискриминации жалуются трансгендеры и транссексуалы, защитники природы, сексменьшинства, представители субкультур, религиозные движения и секты, этнические группы или сообщества по интересам и т.д.

Какое именно должно быть образование у подобного постановщика задач, чтобы, с одной стороны, у него или нее было понимание механизмов работы ИИ, а с другой – отличное знание современных социальных трендов?

Речь идет о совершенно новом направлении образования, причем технари из MIT говорят, что это совершенно точно должны быть инженеры со знанием гуманитарных наук, а гуманитарии с факультетов искусств и социологии считают, что это абсолютно, сто процентов, должны быть гуманитарии с глубокими познаниями в программировании. И те и другие сходятся в одном: гуманитарии и инженеры должны стать билингвами, одинаково хорошо разбирающимися как в социальных и общественных науках, этике, так и в новейших направлениях программирования и обработки данных.

Честно говоря, такая постановка задачи вызывает удивление. На нашей планете всегда было исчезающе мало людей, которые умеют совмещать мышление гуманитариев и технарей в одной черепной коробке. Тем не менее сам процесс развития технологий указывает на то, что рано или поздно решение этой задачи придется найти.

Лично мне трудно представить себе инженера, плотно озабоченного этикой и социальными науками, равно как гуманитария, свободно экспериментирующего с Big Data и алгоритмами нейросетей. Похоже, что для решения этой глобальной задачи потребуется глубокая перестройка системы образования начиная со школы, а то и детского сада.

Однако менять систему образования – дело не быстрое, а «этичный ИИ» нужен прямо сейчас. Например, было бы логично с помощью того же ИИ создать некие инструменты визуализации, которые позволили бы гуманитариям, философам-визионерам и правительствам разных стран пользоваться преимуществами ИИ-решений уже в самое ближайшее время.

Сейчас похожие по идеологии визуальные системы применяются, например, для построения законченных систем на микроконтроллерах. Соединяем стандартные готовые электронные блоки на экране компьютера, а с помощью метаязыка объясняем, что имеем на входе и что хотим получить на выходе. Система сама создает корректный код-прошивку для будущего проектируемого устройства. Можно ли предположить существование подобной визуальной системы по аналогии с Microsoft Visio? Разве что квадратики в этой системе будут объекты Big Data, прямоугольники – нейросети, а стрелочки будут указывать направление и метод преобразования данных. Почему нет?

Можно пойти другим путем. Собрав вместе антропологов, социологов, психологов, урбанологов и, возможно, медиков со всего мира, всем вместе выработать некую концепцию ИИ, которая позволила бы оценивать этику поведения любых других систем ИИ. Вряд ли этот проект может быть реализован одной страной, скорее всего это повод для создания глобальной организации, надзирающей за этикой поведения всех систем ИИ в мире.

В любом случае, все выглядит так, что проблемы, связанные с использованием ИИ, возможно будет решить только с помощью самого ИИ. Люди слишком медлительны, чтобы адекватно оценить последствия влияния созданных ими же новых технологий на все остальное человечество. Несколько настораживает тот факт, что во всей этой многоуровневой системе взаимовлияния человеку остается все меньше места для принятия решений. Кроме того, остается открытым ключевой вопрос: кто будет следить за «правильностью» этики?

  1. There’s no such thing as a «tech person» in the age of AI by Karen Hao – https://www.technologyreview.com/s/613063/ai-ethics-mit-college-of-computing-tech-humanities/.
  2. How the Enlightenment Ends by HENRY A. KISSINGER – https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/.
  3. Technologist Vivienne Ming: ‘AI is a human right’ – https://www.theguardian.com/technology/2018/dec/07/technologist-vivienne-ming-ai-inequality-silicon-valley.
  4. Amazon ditched AI recruiting tool that favored men for technical jobs – https://www.theguardian.com/technology/2018/oct/10/amazon-hiring-ai-gender-bias-recruiting-engine.

Ключевые слова: этика, искусственный интеллект.

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №07 (140) 2024г.
Выпуск №07 (140) 2024г. Выпуск №06 (139) 2024г. Выпуск №05 (138) 2024г. Выпуск №04 (137) 2024г. Выпуск №03 (136) 2024г. Выпуск №02 (135) 2024г. Выпуск №01 (134) 2024г.
Вакансии на сайте Jooble

БИТ рекомендует

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика