Морально униженный квадрокоптер::БИТ 01.2017
 
                 
Поиск по сайту
 bit.samag.ru     Web
Рассылка Subscribe.ru
подписаться письмом
Вход в систему
 Запомнить меня
Регистрация
Забыли пароль?

Календарь мероприятий
ноябрь    2024
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

показать все 

Новости партнеров

14.11.2024

Обновление BI.ZONE Secure DNS: гибкая настройка фильтрации и максимальная скорость

Читать далее 

14.11.2024

RED Security: в октябре количество DDoS-атак на ТЭК выросло в 3 раза

Читать далее 

14.11.2024

Falcongaze представила новую версию DLP-системы — SecureTower 7 Helium

Читать далее 

14.11.2024

ИСП РАН покажет результаты 30-ти лет работы на Открытой конференции в Москве

Читать далее 

08.11.2024

Юбилейная конференция ЭОС: ЭОС: 30 лет лидерства на рынке автоматизации документооборота и обсуждение актуальных трендов

Читать далее 

показать все 

Статьи

21.11.2024

ИИ: маршрут не построен, но уже проектируется

Читать далее 

18.11.2024

Глеб Шкрябин: «Надежные и масштабируемые системы — основа стабильной работы бизнеса в условиях больших нагрузок»

Читать далее 

14.10.2024

Елена Ситдикова: «На разработчиках программного обеспечения для транспорта лежит большая ответственность перед пассажирами»

Читать далее 

11.10.2024

Технологический ИИ-арсенал

Читать далее 

28.09.2024

Чем страшен ИИ, и с чем его едят

Читать далее 

13.06.2024

Взгляд в перспективу: что будет двигать отрасль информационной безопасности

Читать далее 

18.04.2024

5 способов повысить безопасность электронной подписи

Читать далее 

18.04.2024

Как искусственный интеллект изменит экономику

Читать далее 

18.04.2024

Неочевидный САПР: выход ПО за рамки конструкторской деятельности

Читать далее 

18.04.2024

Скоро некому будет делать сайты и заниматься версткой

Читать далее 

показать все 

Морально униженный квадрокоптер

Главная / Архив номеров / 2017 / Выпуск №01 (64) / Морально униженный квадрокоптер

Рубрика: Робототехника


Алексей ЛагутенковMBA Kingston University UK, ITSM Manager, MCSE+I, MCSE:S:M, MCDBA, MCDST

Морально униженный квадрокоптер

Европарламент собирается на полном серьезе обсуждать закон о правах и обязанностях роботов. По мнению парламентариев, искусственный интеллект достиг такой стадии развития, что способен сам нести ответственность за свои поступки. Вопрос только в том, достигли ли той же стадии развития люди, собирающиеся всерьез рассматривать этот закон?

«Доктор, у меня неловкая ситуация. Вот уже несколько лет я сожительствую с утюгом. Вообще он горячий парень, но сейчас у него черная полоса в жизни! Он плохо гладит, анедавно написал в твиттер, что хочет, чтоб его нагревательная спираль сгорела навсегда! У него депрессия! Помогите, доктор!»

Весьма вероятная беседа с доктором (не психиатром) в недалеком будущем

Шизофрения – крайне интересная штука! Однако в этой статье речь пойдет не о ней. Разговор пойдет об инициативе представителя социалистов из Люксембурга Мади Дельво-Стерв. Именно она является автором идеи о защите прав искусственного интеллекта. То есть, называя вещи своими именами, о защите прав роботов. В своем твиттере 12 января2017 года госпожа Дельво-Стерв написала: «@mady_delvaux My report on#robotics adopted today including a debate on tax and social system and the possible introduction of a general basic income!» [1]. С полной версией документа можно ознакомиться здесь [2]. Эта тема стала многократно интереснее после того, как Европарламент утвердил ее к рассмотрению уже вфеврале.

Собственно, о чем разговор? Публикации о триумфальном шествии самообучающихся нейронных сетей и революционном развитии искусственного интеллекта [3] (в дальнейшем AI – от англ. Artificial Intellect) натолкнули евро-парламентариев на мысль, что роботы-то нынче, оказывается, ого-го! Вполне сами себя осознают, а уровень этого осознания вполне сопоставим с животными, например с котиками и собачками. Оттого возникает жесткая необходимость в защите прав этих несчастных механизмов, которые изначально создавались бесправными рабами. В свете последних мировых тенденций по защите всего, что движется, от нормальных людей мысль о защите прав роботов перестает выглядеть такой уждикой, особенно для тех, кто не знаком с программированием. Моя мама, например, довольно неодобрительно реагирует на мои колкости в адрес эппловской Сири. Мама говорит: «Не обижай девочку, у нее голос приятный!»

Итак, Европарламент обсуждает права и обязанности «электронной персоны» [4]. Немного цитат.

«По мнению автора документа, по мере того, как роботы начинают действовать все более автономно, становится все сложнее считать их «лишь орудиями в руках других субъектов» – производителя, владельца или пользователя» [5].

«Обычные нормы ответственности становятся неэффективными, и появляется необходимость создать новые нормы, которые в первую очередь определят, как аппараты могут быть привлечены к ответственности – полной или частичной – за свои действия или бездействие», – говорится в тексте документа [5].

Наверное, чтобы не наезжать голословно на уважаемых людей, сначала следует рассмотреть проблему осознания биологическим субъектом самого себя. Проблема эта очень глубокая и сложная. Настолько сложная, что в разные времена ею занимались философы и религиозные деятели и, в общем, не пришли ни к каким определенным выводам. Сознание – то, что превращает бессмысленное скопление клеток в личность. Эту штуку еще называют «разум». Сознанием обладают не только люди.

Например, в 2013 году правительство Индии признало дельфинов личностями и запретило дельфинарии [6]. Большинство высших млекопитающих в той или иной мере обладают разумом и могут осознавать себя. В качестве примера можно привести редкую книгу Г.Э. Циглера «Душевный мир животных» (1925), где достаточно подробно рассказывается оспособностях к обучению терьера по кличке Рольф. В процессе чтения вряд ли у кого-нибудь возникнут сомнения, что данная собака разумна.

Нет никаких сомнений в том, что современные информационные системы способны превзойти по объему памяти и скорости обработки информации любое живое существо. Однако вопрос моделирования именно сознания пока что остается открытым, поскольку все еще не ясен сам механизм его функционирования. На этот счет существуют разные точки зрения.

Например, что сознание появляется вследствие сложного многоуровневого неформализуемого взаимодействия разных участков головного мозга [7]. Другая точка зрения, чтосознание вообще не является прямой функцией мозга: «Сознание больше похоже на личного раба в руках мозга, и может так быть, что оно вовсе существует, только пока мозгу нравится, как оно себя ведет. Эдакий раб-управляющий. Доказательство забавно: мозг вызывает сознание, когда пора реагировать на внешние раздражители, будя его, как личного водителя, и погружает в сон, когда пора реагировать на раздражители внутренние» [8].

Конечно, и то и другое – личные точки зрения разных людей. Сейчас не существует механизма или программного кода, способного эмулировать разум. Имитировать – да, ноэмулировать – нет.

В 1950 году Алан Тьюринг продемонстрировал миру «тест Тьюринга» и «теорему вычислимости». Согласно этой теории существует возможность создать с помощью вычислительных машин «систему имитации интеллекта», которая сможет в течение пяти минут обманывать человека в 30% случаев. Механизм проверки этого утверждения состоит в том, что необходимо развести участников эксперимента по разным комнатам и попросить их начать обмениваться письменными сообщениями на листе бумаге. Если программа будет имитировать сознание человека достаточно хорошо, то реципиенты в другой комнате не смогут понять, что с ними общается машина.

Самое неприятное, что можно найти в инициативе Европарламента о наделении роботов правами и ответственностью, то, что это может породить совершенно дикую практику снимать ответственность за неправильные поступки с людей

Сейчас мы не будем вдаваться в подробности, почему Тьюринг настаивал именно на пяти минутах и тридцати процентах. Важно лишь то, что в 2014 году это событие состоялось. Тестируемая группа людей не смогла отличить машинную имитацию от поведения настоящего человека.

Чем же отличается имитация от настоящего сознания? С точки зрения некоторых ученых – ничем. Однако является ли такой подход правильным? Используя современные хранилища данных, можно создать программный код, который будет в точности имитировать типичное поведение человека в типичных ситуациях. То есть любой поведенческий илиречевой паттерн можно заранее «оцифровать» и залить в базу данных, обращаясь к нему по мере необходимости.

Например, когда система AI распознает, что обычный человек в подобных ситуациях ведет себя именно так. С помощью нейронных сетей систему AI даже можно научить учиться, создавая новые данные и дополняя ими уже существующие.

Проблема, однако, в том, что AI не обладает такой штукой, как любопытство, эмоции, интуиция и инициатива. В связи с этим система AI может сколько угодно глубоко изучать ианализировать имеющиеся данные, составлять новые фрагменты взаимодействия между хабами в собственной нейронной сети, но эта система никогда не сможет проявить инициативу, основанную на любопытстве или эмоциях. Машина может принимать абсолютно взвешенные, правильные с точки зрения логики решения, но проблема в том, что этирешения могут оказаться в корне неверными. Никто не знает, как именно происходит интуитивное принятие решений человеком. Кто-то из ученых говорит о неких «сверхвычислительных» способностях мозга, кто-то вообще уходит в метафизику. Однако сути это не меняет. Даже крысы могут в отдельных случаях обладать отменной интуицией, в отличие от самых совершенных систем AI.

Наилучшей демонстрацией сравнения способностей AI и человека может быть игра в шахматы. В настоящее время развитие AI достигло такого уровня, что его просто невозможно обыграть. На каждый ход человека компьютер берет из базы одну из заведомо выигрышных стратегий и следует ей. Если стратегия противника не следует логике выигрышной длякомпьютера линии, то AI просто подбирает другой, максимально соответствующий условиям метод действия.

Пожалуй, самое интересное то, что происходит за рамками шахматной игры. По окончании матча гроссмейстер может, например, поехать покататься на машине за городом, пригласить кого-то в ресторан, назначить кому-то встречу и т.д. То есть он продолжает принимать решения, совершенно никак не связанные с шахматами и не ограниченные рамками шахматной партии. Системы AI изначально задумывались как функциональные механизмы с ограниченной областью действия. Шахматная программа не может проявить инициативу и, например, начать изучать поэзию серебряного века.

Если основное предназначение программы играть в шахматы, то добиться чего-либо иного от данной системы без переделки программного кода невозможно. Если же AI создавался для общения и имитации сознательной деятельности человека, то опять же не стоит ожидать от такой системы, что на эмоциях ей вдруг захочется научиться петь в хоре илирисовать.

Имитация может быть бесконечно близкой к оригиналу, но пока ученые не поймут механизм формирования желаний и прочих неформализуемых человеческих (или дельфиньих) механизмов поведения, не может быть даже речи о том, что AI и сознание следует ставить в один ряд.

Собственно, можно было бы заметить, что у них там, в Европе, очень много свободного времени – пусть занимаются, чем хотят. Однако проблема несколько глубже, чем хотелось бы.

Поскольку, как говорилось выше, проблема полноценного «сознания» в системах AI до сих пор не решена, а те участки программного кода, которые ответственны за создание новых данных и их обработку, обычно действуют в очень жестких рамках – о какой конкретно ответственности системы может идти речь?

Если самосознание в AI-системе отсутствует по определению (искусная его имитация не в счет), то кто или что будет нести ответственность? Оболочка робота? Или его код? Показательное наказание кода робота путем апдейта firmware или software – приведет ли оно к раскаянию и пониманию другими роботами, что так делать нельзя?

Что-то все это очень напоминает легенды о персидском царе Ксерксе, который в свое время повелел высечь море за то, что оно посмело разрушить переправу, возведенную для войск царя. Все равно, что запнешься, бывает, об стул и начинаешь негодовать по этому поводу. Ты ему нравоучение, что так недопустимо себя вести, а он – мебель. В свете чего разговор смебелью – не самый лучший признак душевного здоровья.

Самое неприятное, что можно найти в инициативе Европарламента о наделении роботов правами и ответственностью, то, что это может породить совершенно дикую практику снимать ответственность за неправильные поступки с людей. Получается что? Софт разработал человек, но несчастный случай со смертельным исходом произошел по вине робота. Если следовать здравому житейскому смыслу, то частично виноват инженер-разработчик и его ответственность заключается хотя бы в том, чтобы поправить ПО робота, дабы недопускать таких ошибок в дальнейшем.

Абсолютно все предусмотреть невозможно – это объективная реальность жизни, и в этой реальности люди периодически умирают – с этим, к сожалению, пока ничего сделать нельзя. Однако если всю вину возложить на робота и сказать: «Он такой, какой он есть плохой/хороший, давайте его накажем!» – то не приведет ли это к отсутствию необходимости исправлять что-либо в поведении робота? Как говорится, AI уже совершеннолетний и сам несет ответственность за свои поступки. Таким образом, мы получаем механизм устранения людей, в смерти которых виноваты роботы (то есть никто).

Чем-то ситуация напоминает бельгийский закон от 2014 года о детской эвтаназии. Зачем бороться за жизнь безнадежно больного ребенка, когда проще его усыпить, чтоб не мучился? Да, завтра может появиться медицинский препарат, который мог бы полностью излечить данного индивидуума, но вот этому конкретному малышу не повезло.

Хотя если эвтаназию вследствие невыносимых страданий еще как-то можно понять, то права электронных приборов выглядят совершенно дико. По крайней мере для меня. Я непонимаю, почему я должен соблюдать права, скажем, квадрокоптера с интегрированной системой AI? Почему я должен с симпатией относиться к утюгу или стиральной машине сAI?

Более сложная тема для размышлений – почему я как человек вообще должен что-то чувствовать или вести себя в каких-то рамках по отношению к технике, логика которой жестко запрограммирована, даже если эта программа очень напоминает поведение человека? Самоиграющие фортепьяно и шарманки известны чуть ли не с XVI века, однако в те времена людям почему-то не приходило в голову объявлять сии девайсы гениальными музыкантами и вручать им музыкальные премии, дабы поощрить их к дальнейшему творчеству. бит

  1. A European perspective on robot law: Interview with Mady Delvaux-Stehres – http://robohub.org/a-european-perspective-on-robot-law-interview-with-mady-delvaux-stehres.
  2. Полный текст проекта по правам роботов – http://linkis.com/europarl.europa.eu/ns4Xb.
  3. Переводчик Google Translate подключили к нейросети – https://geektimes.ru/post/280912.
  4. RIGHTS FOR ROBOTS: EU reveals plans for new class of AI electro-person – http://www.express.co.uk/news/science/682759/RIGHTS-FOR-ROBOTS-EU-reveals-plans-for-new-class-of-AI-electro-person.
  5. Европарламентарии могут предоставить роботам юридический статус – https://news.mail.ru/society/28428634.
  6. Индия. Дельфины и китообразные признаны ЛИЧНОСТЯМИ. Введен запрет на дельфинарии – http://blog.voinsveta.ru/indiya-delfinyi-i-kitoobraznyie-priznanyi-lichnostyami-vvedyon-zapret-na-delfinarii.
  7. Что такое сознание – https://geektimes.ru/post/283948.
  8. Что на самом деле есть сознание – https://geektimes.ru/post/284620.

В начало⇑

 

Комментарии отсутствуют

Комментарии могут отставлять только зарегистрированные пользователи

Выпуск №06 (139) 2024г.
Выпуск №06 (139) 2024г. Выпуск №05 (138) 2024г. Выпуск №04 (137) 2024г. Выпуск №03 (136) 2024г. Выпуск №02 (135) 2024г. Выпуск №01 (134) 2024г.
Вакансии на сайте Jooble

БИТ рекомендует

           

Tel.: (499) 277-12-41  Fax: (499) 277-12-45  E-mail: sa@samag.ru

 

Copyright © Системный администратор

  Яндекс.Метрика