?

Log in

No account? Create an account

Previous Entry | Next Entry

Этика роботов

На тех ресурсах, которые я посещаю, активно муссируется тема автономных легковушек и грузовиков (они же робомобили). И, т.к. робомобилю придется принимать все решения, которые обычно принимает живой водитель, то в обсуждения постоянно просачивается вопрос: нужна ли роботу-водителю этика или достаточно соблюдать ПДД (возможно, расширенные ПДД, адаптированные для робомобилей).

Очень интересно, что первая реакция на предложение ввести этические принципы для робота-водителя, совершенно одинакова и у программиста, понимающего, как могут работать электронные мозги, и у обывателя, для которого робот - чёрный ящик. Эта реакция - категорическое НЕТ. Никаких этических принципов. Только ПДД, только строгие правила. На мой взгляд, это иррациональное решение, основанное на страхе. Но прежде чем углубиться, пару слов о том, почему вообще возникают вопросы об этике.

Правила движения конфликтуют с другими ценностями. Например, правила требуют от водителя ехать по центру своей полосы. Однако, если справа едет широкая фура, а слева мотоцикл, то водитель обычно смещается влево, чтобы иметь одинаковое пространство для манёвра в обе стороны. Это не по правилам, но это разумно с точки зрения другой ценности - личной безопасности. Конечно, при этом, безопасность воруется у мотоциклиста. Или, другой крайний случай, на проезжую часть выскочил пьяный и тормозить уже поздно, а уклоняться опасно. Кто-то свернет в любом случае, кто-то нет. Кто-то примет различное решение, в зависимости от того, есть ли у него пассажиры. Значение ПДД здесь полностью вытеснено ценностью человеческой жизни, своей и чужой. Понятное дело, роботу придется в каждом случае принимать какое-то конкретное решение. Исходя из чего? Из строгих правил или следуя какой-то иерархии ценностей?

На самом деле альтернативы иллюзорны. Прежде всего, робомобиль будет минимизировать финансовый ущерб автокомпании. Нарушение правил на дороге - это штраф по фиксированному тарифу. Сбитый человек - это компенсация лечения и репутационные риски, косвенно влияющие на продажу. Повреждение самого автомобиля - это выплата страховки. Авария, нанесшея вред водителю - это и компенсация лечения и большие репутационные потери и прямое влияние на продажи - владелец, скорее всего, робомобиль больше не купит. В ситуации выбора автомобиль выберет наименее затратный по деньгам вариант. Из этого следует, что при аварии, автомобиль скорее задавит пешехода, чем свернет в кювет с риском жизни для водителя, т.к. пешеход обойдется дешевле. Если будет выбор - 5 пешеходов или водитель, наверное пешеходам повезло. Что там будет для трёх или для четырёх - надо считать в цифрах. Если министерство по транспорту такая арифметика не устраивает, они могут менять баланс, устанавливая различные штрафы. В идеале, можно настроить законы так, что решение по минимизации финансового ущерба будет совпадать с наиболее этичным решением.

Т.е., хотим мы того или нет, этика у роботов будет. И нарушение правил будет встроено в логику автомобиля. Так работает бизнес. А вот как к этому относиться - вопрос интересный.

Я вижу, что люди реально боятся доверить роботу принимать решение не на основе правил, а на основе ценностей, даже если с самими ценностями человек согласен. И это не просто страх, что робот поймёт ценности неправильно. И я и многие IT-специалисты, считают, что робот справится лучше, чем человек. Один форумчанин очень точно озвучил свою позицию: “я не сяду в машину, которая может меня целенаправленно угробить, лишь бы не врезаться в автобус с детьми”. Да, одно дело, когда тебя убивает какой-то безликий процесс типа наводнения, закон природы или правил дорожного движения, другое дело, когда участвует чья-то воля и тобой жертвуют, сочтя неважным. Принять второе намного тяжелее.

Вообще, проблема гораздо шире. Есть два кардинально разных подхода к этике. Есть деонтологическая этика. Это этика правил. Она предполагает, что действие важнее последствий. В широком смысле, деонтология наказывает нам не только стремиться к добру, но и делать это “добрым” путём. Нельзя преступать закон и этические нормы, даже если это в итоге приведет к чему-то хорошему.

Противоположный подход - консеквенциализм. Т.е. цель оправдывает средства, победителей не судят и т.д. Или, грубо говоря, нужно поступать так, чтобы добрые последствия действий перевешивали злые.

[Любимый пример]
В культовом, для всех IT-шников, произведении “Гарри Поттер и методы рационального мышления”, Гарри строжайше следует консеквенциализму, а Гермиона не менее ревностно проповедует деонтологию.


В чистом виде нельзя следовать ни тому, ни другому. Однако, трагедия в том, что все мы склонны разрешать консеквенциализм себе, но не другим. Это ясно как по автомобильной теме (пусть я буду ездить по обстоятельствам, а остальные - по правилам), так и в отношении соблюдения законов вообще. Себе можно разрешить нарушение закона, т.к. сам знаешь, что будет справедливо или что не нанесет значительного вреда. Другим (что людям, что роботам) - нет.

Когда я примеряю все эти этические темы на себя, то прихожу к неутешительному выводу. Мне трудно доверить другим людям нарушать правила, не только потому, что я типа умный, честный, могу оценить последствия и всегда поступать справедливо, а другие остальные глупцы и обманщики и не могут. Приходится признать, что я сам не очень умный и не очень честный. Т.е. мне самому, по сути, доверять нельзя. Чего уж тут говорить о ближних и дальних. И все, наверное, в глубине души, знают про себя тоже самое.

В психологии довольная стандартная тема - переносить собственные прегрешения на других. Например, те, кто ходит налево, меньше доверяют своим супругам, чем верные. Собственная неэтичность поразительным образом уменьшает веру в этичность других и наоборот.

Думаю, те же иррациональные мотивы вызывают страх перед мыслью, что робот-автомобиль будет руководствоваться этикой (принципами), а не правилами. Надеюсь, это не помешает развитию индустрии, ибо ездить мне хочется, а вот смотреть за дорогой как-то не очень.

Comments

mozgosteb
Aug. 28th, 2016 02:53 pm (UTC)
Re: Смотри:
Ну а что там? Перебирают сто раз обсосанные аргументы.
xarita
Aug. 28th, 2016 02:55 pm (UTC)
Re: Смотри:
Это я к тому, что БЭ вопросы никого там не мучают ;) Сплошная ЧЛ :)))
mozgosteb
Aug. 28th, 2016 03:01 pm (UTC)
Re: Смотри:
Фриц, до того как "продался режиму" и стал писать про политику, проповедовал метасатанизм, логику и рациональное мышление. Т.е. подходы к этике имел от логики и аудиторию собрал соответствующую. Не знаю, хорошо это или плохо, но про этику там только тролли рассуждают.

xarita
Aug. 28th, 2016 03:04 pm (UTC)
Re: Смотри:
Я у него до политики почему-то только котика помню :)))
mozgosteb
Aug. 28th, 2016 03:06 pm (UTC)
Re: Смотри:
Про котика?
xarita
Aug. 28th, 2016 03:08 pm (UTC)
Re: Смотри:
Ну у него есть или был уже серый такой котик :)
mozgosteb
Aug. 28th, 2016 03:11 pm (UTC)
Re: Смотри:
Точно, я и забыл
xarita
Aug. 28th, 2016 03:17 pm (UTC)
Re: Смотри:
А сейчас я не знаю, постит он его или нет. Так-то котики и двадцать лет прожить могут! :)
mozgosteb
Aug. 28th, 2016 03:19 pm (UTC)
Re: Смотри:
Так-то блогер известный, наверняка про его кота есть страница википедии. Можно поискать!
xarita
Aug. 28th, 2016 03:22 pm (UTC)
Re: Смотри:
Нашла! Кошку зовут Тесла! ;) Но там не написано, жива она или нет :)))
xarita
Aug. 28th, 2016 04:23 pm (UTC)
Вот зачем я на Лурк полезла! Я теперь там зависла :)))
mozgosteb
Aug. 28th, 2016 04:28 pm (UTC)
Именно на лурке, кстати, довольно неплохие статьи по физике.
xarita
Aug. 28th, 2016 04:35 pm (UTC)
Мне вот кто-то это уже говорил...Кинь что-нибудь для примера, плиз, я пойму смотрела или нет.

Сижу хихикаю:
https://lurklurk.com/%D0%90%D0%BD%D0%B4%D0%B5%D0%B4
mozgosteb
Aug. 28th, 2016 05:18 pm (UTC)
Позже поищу, с телефона неудобно.
Может, про Андела сами статью на лурк напишем?
xarita
Aug. 28th, 2016 05:21 pm (UTC)
ыыы,представляю себе эту статью ;)
(no subject) - mozgosteb - Aug. 28th, 2016 05:27 pm (UTC) - Expand
(no subject) - xarita - Aug. 28th, 2016 05:35 pm (UTC) - Expand