?

Log in

No account? Create an account

Previous Entry | Next Entry

Этика роботов

На тех ресурсах, которые я посещаю, активно муссируется тема автономных легковушек и грузовиков (они же робомобили). И, т.к. робомобилю придется принимать все решения, которые обычно принимает живой водитель, то в обсуждения постоянно просачивается вопрос: нужна ли роботу-водителю этика или достаточно соблюдать ПДД (возможно, расширенные ПДД, адаптированные для робомобилей).

Очень интересно, что первая реакция на предложение ввести этические принципы для робота-водителя, совершенно одинакова и у программиста, понимающего, как могут работать электронные мозги, и у обывателя, для которого робот - чёрный ящик. Эта реакция - категорическое НЕТ. Никаких этических принципов. Только ПДД, только строгие правила. На мой взгляд, это иррациональное решение, основанное на страхе. Но прежде чем углубиться, пару слов о том, почему вообще возникают вопросы об этике.

Правила движения конфликтуют с другими ценностями. Например, правила требуют от водителя ехать по центру своей полосы. Однако, если справа едет широкая фура, а слева мотоцикл, то водитель обычно смещается влево, чтобы иметь одинаковое пространство для манёвра в обе стороны. Это не по правилам, но это разумно с точки зрения другой ценности - личной безопасности. Конечно, при этом, безопасность воруется у мотоциклиста. Или, другой крайний случай, на проезжую часть выскочил пьяный и тормозить уже поздно, а уклоняться опасно. Кто-то свернет в любом случае, кто-то нет. Кто-то примет различное решение, в зависимости от того, есть ли у него пассажиры. Значение ПДД здесь полностью вытеснено ценностью человеческой жизни, своей и чужой. Понятное дело, роботу придется в каждом случае принимать какое-то конкретное решение. Исходя из чего? Из строгих правил или следуя какой-то иерархии ценностей?

На самом деле альтернативы иллюзорны. Прежде всего, робомобиль будет минимизировать финансовый ущерб автокомпании. Нарушение правил на дороге - это штраф по фиксированному тарифу. Сбитый человек - это компенсация лечения и репутационные риски, косвенно влияющие на продажу. Повреждение самого автомобиля - это выплата страховки. Авария, нанесшея вред водителю - это и компенсация лечения и большие репутационные потери и прямое влияние на продажи - владелец, скорее всего, робомобиль больше не купит. В ситуации выбора автомобиль выберет наименее затратный по деньгам вариант. Из этого следует, что при аварии, автомобиль скорее задавит пешехода, чем свернет в кювет с риском жизни для водителя, т.к. пешеход обойдется дешевле. Если будет выбор - 5 пешеходов или водитель, наверное пешеходам повезло. Что там будет для трёх или для четырёх - надо считать в цифрах. Если министерство по транспорту такая арифметика не устраивает, они могут менять баланс, устанавливая различные штрафы. В идеале, можно настроить законы так, что решение по минимизации финансового ущерба будет совпадать с наиболее этичным решением.

Т.е., хотим мы того или нет, этика у роботов будет. И нарушение правил будет встроено в логику автомобиля. Так работает бизнес. А вот как к этому относиться - вопрос интересный.

Я вижу, что люди реально боятся доверить роботу принимать решение не на основе правил, а на основе ценностей, даже если с самими ценностями человек согласен. И это не просто страх, что робот поймёт ценности неправильно. И я и многие IT-специалисты, считают, что робот справится лучше, чем человек. Один форумчанин очень точно озвучил свою позицию: “я не сяду в машину, которая может меня целенаправленно угробить, лишь бы не врезаться в автобус с детьми”. Да, одно дело, когда тебя убивает какой-то безликий процесс типа наводнения, закон природы или правил дорожного движения, другое дело, когда участвует чья-то воля и тобой жертвуют, сочтя неважным. Принять второе намного тяжелее.

Вообще, проблема гораздо шире. Есть два кардинально разных подхода к этике. Есть деонтологическая этика. Это этика правил. Она предполагает, что действие важнее последствий. В широком смысле, деонтология наказывает нам не только стремиться к добру, но и делать это “добрым” путём. Нельзя преступать закон и этические нормы, даже если это в итоге приведет к чему-то хорошему.

Противоположный подход - консеквенциализм. Т.е. цель оправдывает средства, победителей не судят и т.д. Или, грубо говоря, нужно поступать так, чтобы добрые последствия действий перевешивали злые.

[Любимый пример]
В культовом, для всех IT-шников, произведении “Гарри Поттер и методы рационального мышления”, Гарри строжайше следует консеквенциализму, а Гермиона не менее ревностно проповедует деонтологию.


В чистом виде нельзя следовать ни тому, ни другому. Однако, трагедия в том, что все мы склонны разрешать консеквенциализм себе, но не другим. Это ясно как по автомобильной теме (пусть я буду ездить по обстоятельствам, а остальные - по правилам), так и в отношении соблюдения законов вообще. Себе можно разрешить нарушение закона, т.к. сам знаешь, что будет справедливо или что не нанесет значительного вреда. Другим (что людям, что роботам) - нет.

Когда я примеряю все эти этические темы на себя, то прихожу к неутешительному выводу. Мне трудно доверить другим людям нарушать правила, не только потому, что я типа умный, честный, могу оценить последствия и всегда поступать справедливо, а другие остальные глупцы и обманщики и не могут. Приходится признать, что я сам не очень умный и не очень честный. Т.е. мне самому, по сути, доверять нельзя. Чего уж тут говорить о ближних и дальних. И все, наверное, в глубине души, знают про себя тоже самое.

В психологии довольная стандартная тема - переносить собственные прегрешения на других. Например, те, кто ходит налево, меньше доверяют своим супругам, чем верные. Собственная неэтичность поразительным образом уменьшает веру в этичность других и наоборот.

Думаю, те же иррациональные мотивы вызывают страх перед мыслью, что робот-автомобиль будет руководствоваться этикой (принципами), а не правилами. Надеюсь, это не помешает развитию индустрии, ибо ездить мне хочется, а вот смотреть за дорогой как-то не очень.

Comments

( 112 comments — Leave a comment )
Page 1 of 2
<<[1] [2] >>
elshanec
Aug. 17th, 2016 04:47 pm (UTC)
когда ехать хочется, а рулить нет - такси. и пусть за рулём будет не киборг. и не горец-джигит.
mozgosteb
Aug. 17th, 2016 04:49 pm (UTC)
Такси - дорого. К тому же, если полностью исключить людей из процесса вождения, то на дорогах станет в разы безопаснее.
(no subject) - elshanec - Aug. 17th, 2016 11:23 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 05:05 am (UTC) - Expand
(no subject) - elshanec - Aug. 18th, 2016 07:20 am (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 07:59 am (UTC) - Expand
(no subject) - elshanec - Aug. 18th, 2016 08:11 am (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 08:28 am (UTC) - Expand
(no subject) - elshanec - Aug. 18th, 2016 08:30 am (UTC) - Expand
(no subject) - mozgosteb - Aug. 17th, 2016 04:53 pm (UTC) - Expand
brickinzewall
Aug. 17th, 2016 05:03 pm (UTC)
видимо, я не программист, и не обыватель - я в этом вопросе изначальо категорически за
mozgosteb
Aug. 17th, 2016 05:06 pm (UTC)
Это радует! Ибо не только верная, но и единственно возможная позиция.

Edited at 2016-08-17 08:09 pm (UTC)
radugaw
Aug. 17th, 2016 05:18 pm (UTC)
Мне кажется, . ты сейчас обозначил проблемы. Их можно описать и решить. И всё. Ведь ясно, что для робота человеческая жизнь должна быть важна в первую очередь , никакая ценность автомобиля и груза не может браться в расчет.
mozgosteb
Aug. 17th, 2016 05:23 pm (UTC)
Даже в текущих реалиях, безо всяких изменений в законах, для автомобильной компании, жизнь ценнее автомобиля и груза. Проблема ещё и в том, что например, жизнь владельца автомобиля ценнее любой одной жизни вокруг автомобиля. Проблема даже не в том, что она ценнее, а в том что оказывается и допустимым и необходимым эти жизни сравнивать. И робот будет сравнивать.
(no subject) - radugaw - Aug. 17th, 2016 05:27 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 17th, 2016 05:34 pm (UTC) - Expand
k_medvezhonkina
Aug. 17th, 2016 11:12 pm (UTC)
А мне изначально страшно дрверять свое все консервной банке, сколько бы микросхем в нее не насовали. Но велосипедисты страшнее.
mozgosteb
Aug. 18th, 2016 05:09 am (UTC)
У меня тут профдеформация) Мне консервной банке довериться легче, чем белковому существу, у которого неизвестно что на уме и коротнуть может покуруче, чем у механизма.
(no subject) - k_medvezhonkina - Aug. 18th, 2016 05:21 am (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 05:37 am (UTC) - Expand
xarita
Aug. 18th, 2016 02:39 am (UTC)
Все разом посты в ночь повыкладывали *ворчит*
Ничего не прочитала :( голова болела.

А тема-то интересная ;)
mozgosteb
Aug. 18th, 2016 05:11 am (UTC)
Обычно дилемму ночь\утро я решаю в пользу ночи =(
Т.к. к утру я могу передумать и вообще ничего не выкладывать.
(no subject) - xarita - Aug. 18th, 2016 05:15 am (UTC) - Expand
mage_pro
Aug. 18th, 2016 03:31 am (UTC)
Я думал будет пример про Артаса, который вырезал город, потому что все они были заражены и должны были пополнить армию мертвых.
Меня убивает всегда логика героев, которые зная на 100%, что есть только плохой вариант и очень плохой, продолжают на что-то надеяться и чаще всего происходит счастливое избавление.
В этом смысле меня поразил фильм Мгла, где герой принимает чудовищное, но единственно верное на тот момент, решение, но обстоятельства меняются и в общем эпик фейл. Литература и особенно кинематограф всегда однозначно отдает предпочтение деонтологической этике.
mozgosteb
Aug. 18th, 2016 05:21 am (UTC)
А откуда Артас? Я не читал. А мглу читал. Это Стивен Кинг, да?

В кино да, есть такое. Это сродни тому, что все ленты про путешествия во времени предупреждают, что менять время очень опасно или вообще бесполезно. Правда, следование консеквенциализму действительно очень опасно и, в большинстве случаев, не оправдано.

Пост собирался написать как раз про консеквенциализм, но не потянул подробный разбор.
(no subject) - mage_pro - Aug. 18th, 2016 05:32 am (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 05:36 am (UTC) - Expand
xarita
Aug. 18th, 2016 12:14 pm (UTC)
Думаю, те же иррациональные мотивы вызывают страх перед мыслью, что робот-автомобиль будет руководствоваться этикой (принципами), а не правилами.

Ну правила ПДД у него все равно зашиты плюс правила "этики" в каких случаях давить.
Мы когда на курсах учились нам, например, говорили, что кошек и собак давить не раздумывая, столкновение с большим животным очень опасно, да и человек в лобовое прилетает как мешок цемента. Ну т.е. понятно, что все будут ориентироваться на авто и пассажира, а не на пешеходов, если мы людей исключим из процесса вождения совсем, так как преимущество должно быть у того, кто "играет по правилам". ;)
Вот смотри, статистика по ДТП:

dtp_diagramm_4

Сначала мы "подавим" процентов 20 пешеходов, кого как. Через какое-то время
3,7 и 9,2 отпадут точно. Это как с электричеством. Останутся кошки-собаки, дети, алкоголики, бабушки и другие недееспособные граждане. Их мы тоже "подавим". А что делать?! green peace нам ничего не сделает, ПФР скажет спасибо. Детей жалко, но это и сейчас огромная проблема.
А 79,3% причин аварий мы при этом убираем и ждем восстания машин, ага :)

НО! Есть 0,3%, которые нам не победить! ;) И которые приведут к краху любую идею в этом направлении. Пока мы кладем асфальт в дождь, никакое восстание машин нам не грозит! ;)

Edited at 2016-08-18 03:15 pm (UTC)
mozgosteb
Aug. 18th, 2016 12:58 pm (UTC)
Рад, что ты заинтересовалась темой!

>Ну правила ПДД у него все равно зашиты плюс правила "этики" в каких случаях давить.

Не совсем так.
Во первых, в отечественных правилах, например, насколько я знаю, нужно плавно тормозить, не допуская заноса. Т.е. кто там на дороге, кто у тебя в салоне совершенно не учитывается. Т.е. этику (подвергать ли свою жизнь опасности, или кого именно давить, если есть выбор) по сути оставляют на усмотрение водителя. То, что вам говорили на курсах, относится скорее к общеразумному поведению, а не к ПДД.

Во вторых, робомобили УЖЕ нарушают правила, в тех случаях, когда это разумно (я писал в начале пример про разметку). Это исключительно вопрос цены, т.к. штраф за подобное нарушение не предусмотрен или незначителен, а безопасность (которая тоже измеряется в деньгах) увеличивается. Т.е. соблюдение ПДД уже сейчас не ограничение, а только предпочтительная альтернатива.

Минус 80% аварий - это прекрасно! И вот эти 0,3%, как ты верно заметила, действительно будут склонять общественное мнение, прислушивающиеся не к статистике, а к своим иррациональным страхам, выступать против робомоилей =(.

А по поводу асфальта я настроен оптимистически. Действительно, кажется, будто наша страна в принципе не готова к инновациям, требующим дисциплины от исполнительных органов. У нас просто нет соответствующих традиций.

Но тут есть такой эффект, который я называю бюрократическим чудом. Взять скажем, таможню. Есть куча нелепых предписаний. Есть ленивые сотрудники на местах. Есть взяточники. Есть несколько внутренних подструктур, которые конкурируют и мешают друг другу. Растаможка груза занимает недели. Ты в этом во всем варишься и когда поступает распоряжение, скажем, честно провести по бумагам большое грузовое судно, скажем за день, кажется, что это в принципе невозможно. Но при участии руки сверху вдруг всё получается за 14 часов безо всяких срезаний углов. И это кажется, невероятным чудом. Но чудо это всего лишь ментальное, ломающее барьеры в голове. В реальности никакого чуда нет, просто в данный конкретный раз все участники отработали именно так, как и должны были работать всегда, каждый день.

Для робомоилей в России тоже видится много препятствий, но все они ментальные, реально ничего не мешает. Нужна воля сверху, нужен контроль и нужен опыт. Я думаю, можно взять небольшой город и обкатать все проблемы на нём. С общественным мнением тоже можно поработать, благо технологии давно обкатаны.
(no subject) - xarita - Aug. 18th, 2016 01:36 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:19 pm (UTC) - Expand
(no subject) - xarita - Aug. 18th, 2016 02:22 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:25 pm (UTC) - Expand
(no subject) - xarita - Aug. 18th, 2016 02:26 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:31 pm (UTC) - Expand
(no subject) - xarita - Aug. 18th, 2016 02:36 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:42 pm (UTC) - Expand
(no subject) - xarita - Aug. 18th, 2016 02:46 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 03:02 pm (UTC) - Expand
(no subject) - xarita - Aug. 18th, 2016 03:03 pm (UTC) - Expand
(no subject) - xarita - Aug. 18th, 2016 02:20 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:22 pm (UTC) - Expand
(no subject) - xarita - Aug. 18th, 2016 02:25 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:26 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:28 pm (UTC) - Expand
(no subject) - xarita - Aug. 18th, 2016 02:34 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:40 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 18th, 2016 02:43 pm (UTC) - Expand
gnawer
Aug. 18th, 2016 05:24 pm (UTC)
По-моему, если не нарушают, то просто ты можешь предсказать чего от них ожидать, что для тебя лично удобнее. Это без разницы люди или не люди. Наиболее распространённая претензия к любой технике - работает как-то непонятно, не так, как ожидаешь.
mozgosteb
Aug. 18th, 2016 06:13 pm (UTC)
Тут такое дело, что даже нарушая, они предсказуемее, чем человек. Но есть такое иррациональное желание, чтобы они были предсказуемы АБСОЛЮТНО.
(no subject) - mage_pro - Aug. 19th, 2016 12:47 am (UTC) - Expand
(no subject) - mozgosteb - Aug. 19th, 2016 05:27 am (UTC) - Expand
(no subject) - mage_pro - Aug. 19th, 2016 09:09 am (UTC) - Expand
(no subject) - mozgosteb - Aug. 19th, 2016 09:11 am (UTC) - Expand
tisifona
Aug. 19th, 2016 06:51 am (UTC)
Боян, но...

На экзамене по вождению.
— Вы управляете движущимся транспортным средством. Неожиданно перед вами возникают две фигуры — старушка и девочка. Кого будете давить?
— Наверно... Старушку...
— Тормоз! Тормоз давить надо!
mozgosteb
Aug. 19th, 2016 06:57 am (UTC)
=)
Ivan Ivanov
Aug. 19th, 2016 07:15 am (UTC)
Есть старая шутка на этот счет:

На экзамене в автошколе инструктор спрашивает курсанта:
- Вот ты едешь по узкой горной дороге. Слева стоит старуха, справа - красивая девушка. Кого давить будешь?
- Конечно, бабушку!
- Дурак! Тормоз давить надо!

Эта шутка, тем не менее, однозначно и четко описывает алгоритм действий для водителя-человека, потенциально способного к этическим оценкам и он предельно прост: к черту этику! Возникло непредвиденное препятствие - бетонный блок, нетрезвый мужик или беременная женщина с детьми - тормози. Не получилось - значит не получилось. Правила не предписывают жертвовать собой или кем-то еще. В этом, собственно, суть ПДД, выкованная вековым массовым использованием автомобилей - свести все к ситуациям, в которых правота или неправота сторон очевидна. Если водитель едет соблюдая ПДД, а пешеход выскочил на дорогу в нарушение ПДД, то водитель обязан попытаться предотвратить ДТП, но и только, невзирая на пол, возраст, социальные заслуги или иные параметры нарушителя(/ей). Так с чего бы роботам действовать иначе?

И хотя технически водителю разрешено нарушать ПДД для предотвращения "большего вреда", но полагаю, что бизнес работает иначе - нарушение правил категорически НЕ будет встроено в логику робомобилей. Какое дело компании до финансовых потерь водителей, которые к тому же будут компенсироваться страховыми компаниями? Робомобили будут давить кого угодно - лишь бы соблюсти ПДД до последней запятой, лишь бы компании-производителю не пришлось отвечать в суде перед любыми жертвами ДТП за нарушение ПДД.

Что же до неявного пассажа про этику в среде IT, то знаете, она просто достала. Из каждой щели при каждом удобном случае выползает какой-то гуманитарий и начинает философствовать о Глобальных Этических Проблемах касательно любой новинки. И почти все, кто как-то связан с инновациями - инженеры, ученые, айтишники - реагируют на подобные тексты однозначно негативно.

P.S.: Я айтишник, но полагаю, что ГП - это довольно скучное произведение про типичные подростковые проблемы, недалеко ушедшее от "Сумерек". И эта точка зрения широко распространена среди моих коллег. Может быть вы путаете айтишников и студентов/школьников-"айтишников"?


Edited at 2016-08-19 11:01 am (UTC)
mozgosteb
Aug. 19th, 2016 08:25 am (UTC)
Боюсь, вы неверно поняли общий посыл. Я даже немного расстроился.

>Правила не предписывают жертвовать собой или кем-то еще.
То, что вы пишете в этом абзаце, никак не противоречит тому, что написал я. Правила не предписывают, поэтому нужно действовать по ситуации. Часто, разумное решение одно - давить. Иногда, без риска жизни для водителя, можно выбрать как именно давить. И тут хорошо бы минимизировать ущерб. Если, скажем, выгодно затормозить об другую машину и есть выбор об какую именно, то включать этику можно и нужно. Хотя бы потому, что ничего конкретного ПДД здесь не предписывает.

>Бизнес работает иначе - нарушение правил категорически НЕ будет встроено в логику робомобилей.
Во первых, бизнес именно так и работает. Бизнес штрафов не боится. Бизнес боится таких штрафов, которые больше выгоды (или упущенной выгоды). Поверьте не слишком удачливому, но всё же опытному бизнесмену. Всё, что влияет на продажи, в том числе финансовые и моральные потери водителей, будут учтено и посчитано. Подробнее разбираю тут: http://mozgosteb.livejournal.com/59142.html
Во вторых, что подтверждает мои слова, гугломобили уже нарушают правила, пример про разметку не с потолка взят.

>Из каждой щели при каждом удобном случае выползает какой-то гуманитарий и начинает философствовать о Глобальных Этических Проблемах касательно любой новинки.
На всякий случай, вам стоит знать, что я проф.программист со стажем 20 лет и пост написан по мотивам обсуждений на хабре, т.е. IT-шниками. А вы считаете, что этику обсуждать не надо? Почему?

>ГП - это довольно скучное произведение про типичные подростковые проблемы
Гарри Поттер и методы рационального мышления, упоминаемые в посте - это произведение, написанное специалистом по искусственному интеллекту, протагонистом научного мировоззрения и рационального подхода к решению проблем Э.Юдковским. Там подростковые проблемы вообще не рассматриваются.


Edited at 2016-08-19 12:09 pm (UTC)
xarita
Aug. 19th, 2016 12:58 pm (UTC)
Не в тему. Нортону вчера был день рождения. Мне очень нравится это его фото:

684690_1415443500

У тебя бывает такое настроение? ;)
mozgosteb
Aug. 19th, 2016 02:21 pm (UTC)
Бывает, наверное) Может, на аватарку утянуть? Вместо этой.
(no subject) - xarita - Aug. 19th, 2016 02:22 pm (UTC) - Expand
livejournal
Aug. 20th, 2016 02:31 am (UTC)
Здравствуйте! Ваша запись попала в топ-25 популярных записей LiveJournal северного региона. Подробнее о рейтинге читайте в Справке.
andeadd
Aug. 21st, 2016 10:22 am (UTC)
белая этика прям совсем не моё, текст меня ПАРАЛИЗУЕТ :))
mozgosteb
Aug. 21st, 2016 11:47 am (UTC)
Краткая выжимка:
1. Все хотят, чтобы роботы были простыми и предсказуемыми как палка. А то страшно.
2. Роботы такими не будут, ибо бизнес уже взял курс на гибкую логику и вообще, желать такое иррационально и глупо.
3. Надо смириться и шагать в светлое будущее.

А в чём проявляется БЭ?
(no subject) - andeadd - Aug. 21st, 2016 12:04 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 21st, 2016 12:12 pm (UTC) - Expand
(no subject) - xarita - Aug. 21st, 2016 12:43 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 21st, 2016 12:49 pm (UTC) - Expand
(no subject) - xarita - Aug. 21st, 2016 12:54 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 21st, 2016 01:01 pm (UTC) - Expand
(no subject) - xarita - Aug. 21st, 2016 01:45 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 21st, 2016 01:48 pm (UTC) - Expand
(no subject) - xarita - Aug. 21st, 2016 01:57 pm (UTC) - Expand
xarita
Aug. 28th, 2016 11:37 am (UTC)
Смотри:
mozgosteb
Aug. 28th, 2016 11:49 am (UTC)
Re: Смотри:
Хорошо)
Re: Смотри: - xarita - Aug. 28th, 2016 11:49 am (UTC) - Expand
Re: Смотри: - mozgosteb - Aug. 28th, 2016 11:53 am (UTC) - Expand
Re: Смотри: - xarita - Aug. 28th, 2016 11:55 am (UTC) - Expand
Re: Смотри: - mozgosteb - Aug. 28th, 2016 12:01 pm (UTC) - Expand
Re: Смотри: - xarita - Aug. 28th, 2016 12:04 pm (UTC) - Expand
Re: Смотри: - mozgosteb - Aug. 28th, 2016 12:06 pm (UTC) - Expand
Re: Смотри: - xarita - Aug. 28th, 2016 12:08 pm (UTC) - Expand
Re: Смотри: - mozgosteb - Aug. 28th, 2016 12:11 pm (UTC) - Expand
Re: Смотри: - xarita - Aug. 28th, 2016 12:17 pm (UTC) - Expand
Re: Смотри: - mozgosteb - Aug. 28th, 2016 12:19 pm (UTC) - Expand
Re: Смотри: - xarita - Aug. 28th, 2016 12:22 pm (UTC) - Expand
(no subject) - xarita - Aug. 28th, 2016 01:23 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 28th, 2016 01:28 pm (UTC) - Expand
(no subject) - xarita - Aug. 28th, 2016 01:35 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 28th, 2016 02:18 pm (UTC) - Expand
(no subject) - xarita - Aug. 28th, 2016 02:21 pm (UTC) - Expand
(no subject) - mozgosteb - Aug. 28th, 2016 02:27 pm (UTC) - Expand
(no subject) - xarita - Aug. 28th, 2016 02:35 pm (UTC) - Expand
iismene
Jun. 18th, 2017 09:26 am (UTC)
Однажды меня глубоко потрясло высказывание одного человека. Это был интеллигентнейший (хотя я обычно "интеллигентом" ругаюсь), этичнейший, мягчайший и порядочнейший человек, на котором, прямо скажем, в коллективе многие "ездили". В связи с ним невозможно было представить ничего не то что аморального, но даже граничащего с моральной дилеммой. Даже в тех областях, где многие и не задумаются, вроде платить ли подоходный, или взять черным налом. Представили типаж?

И вот прихожу я на работу и с возмущением рассказываю, что все столбы возле деткиной школы оклеены объявлениями с просьбой отозваться свидетелей происшествия. Какая-то сволочь сбила ребенка и скрылась. Ребенок умер. Но не в результате ДТП как такового, а в результате несвоевременного оказания помощи. Его не сразу заметили (там очень второстепенная улица, по которой в те времена почти никто и не ездил-то). А если бы эта сволочь не скрылась бы, то ребенок выжил бы наверняка.

И тут этот человек мне и говорит: "правильно! Только так и надо в таких случаях. Неизвестно, кто был виноват на самом деле. Ребенок мог выскочить. Но даже если он был виноват сам, то водителя в любом случае посадят. И тогда будет плохо всем. И никому не помочь, и ничего не вернуть, но собственную жизнь загубить и семью обездолить." Я онемела.

Я бы предпочла, чтоб меня "страховал" робомобиль. Мне однажды выскочил под колеса щенок, и я его задавила насмерть. И вообще-то свято убеждена, что так и надо: даже если у меня в машине нет пассижиров, не то что детей, то где моя жизнь и где - бездомное городское животное, составляющее проблему? Даже думать не о чем, давить и все! Пьяные примерно равны бродячим животным: нечего под колеса выпадать, подставляя водителя, если не животное. Однако, по факту тормозила и уворачивалась изо всех сил, рефлекторно. Очень повезло, что дело было в промняке, и на встречке, куда я в итоге доувернулась, никого не оказалось. Но щенка все равно убила. И лишь чистой удачей не убилась сама. Ну его на фиг, эти рефлексы. Я готова положиться на систему, что в отличие от меня успевает просчитать траектории:) при условии, что по деньгам водитель и пешеход стоят одинаково, и считают именно шансы. То есть, если у водителя 51% благополучного исхода vs 49-процентной вероятности для пешехода, то спасают его. И наоборот. А как крутиться, если 50х50?

Edited at 2017-06-18 12:28 pm (UTC)
mozgosteb
Jun. 18th, 2017 10:35 am (UTC)
Мне кажется, вы в принципе человек этичный, поэтому и границу доверия можете устанавливать не из страха а на каких-то разумных основаниях.
(no subject) - iismene - Jun. 18th, 2017 10:55 am (UTC) - Expand
(no subject) - mozgosteb - Jun. 18th, 2017 11:20 am (UTC) - Expand
(no subject) - talgaton - Feb. 15th, 2018 11:22 am (UTC) - Expand
(no subject) - iismene - Feb. 16th, 2018 04:49 am (UTC) - Expand
(no subject) - talgaton - Feb. 16th, 2018 05:39 am (UTC) - Expand
(no subject) - iismene - Feb. 16th, 2018 05:59 am (UTC) - Expand
(no subject) - talgaton - Feb. 16th, 2018 06:09 am (UTC) - Expand
Page 1 of 2
<<[1] [2] >>
( 112 comments — Leave a comment )