Классический форум-трекер
canvas not supported
Нас вместе: 4 232 187

Этика беспилотников: как нельзя кодировать мораль


Страницы:   Пред.  1, 2, 3, 4, 5, 6  След. 
 
RSS
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Автомобилисты здесь!
Автор Сообщение
Maximus ®
Вольный стрелок
Uploader 100+
Стаж: 17 лет 5 мес.
Сообщений: 5046
Ratio: 25.177
Поблагодарили: 13176
100%
nnm-club.gif
Кого должен сбить беспилотный автомобиль в безвыходной аварийной ситуации — пожилого человека или беременную женщину? Ребенка с собакой или кого-то похожего на воришку? Или врезаться в бетонное ограждение, чтобы спасти пешеходов, но рискнуть пассажиром? Примерно такие вопросы возникают в публичных обсуждениях, когда речь заходит об этике беспилотных автомобилей. Но давайте разберемся, что на самом деле делают, когда пытаются научить беспилотник морали.

Аморальная машина
Вопросы вроде - «кто важнее — человек или животное, доктор или вор, беременная женщина или пожилой мужчина?» — типичные для игры в моральную машину, которую создали на базе медиа-лаборатории Массачусетского технологического института.

"Моральная машина" — один из самых известных на сегодняшний день проектов, посвященных решению этических вопросов. Его разработала команда исследователей из разных дисциплин, университетов и стран еще в 2015 году. С тех пор тест был переведен на 10 языков, и его прошли миллионы людей по всему миру. Идея этого проекта представляет собой попытку решить вопросы этики беспилотных автомобилей с помощью больших данных. То есть предполагалось, что чем больше людей решат эти задачи, тем больше шансов у разработчиков беспилотников сделать их машины действительно этичными.

Уже в 2018 году команда проекта опубликовала статью в Nature, где раскрыла свои данные о прохождении теста. 40 миллионов решений из 233 стран — подумать только! На этой базе авторы рассказывают о глобальных различиях в том, какой выбор делали пользователи (а они есть, и очень значимые). Они предлагают кластеризацию стран по трем направлениям, где доминируют те или иные этические предпочтения, например, связанные с религиозными убеждениям. Также они анализируют индивидуальные выборы, исходя из демографических характеристик пользователей. Наконец, они пытаются выявить культурные и институциональные особенности этических решений. Общая их цель — предложить подходы к разработке такой этики, которая бы считалась социально приемлемой. Вроде бы звучит неплохо, но почему тогда на тест обрушилась массовая критика?

Неэтичный аутсорсинг
С самого начала дизайн теста для измерения этики вызвал большую критику. Как можно принимать этические решения, опираясь на статистику ответов на тесты? Неужели подобный аутсорсинг может создать правильную этическую рамку? И вообще, какова вероятность, что беспилотники будут действительно сталкиваться хотя бы с одной из моделируемых ситуаций?

Один из пунктов критики теста — сам факт аутсорсинга решения этических вопросов. Иными словами, разработчики снимают с себя ответственность и перекладывают ее на пользователей, чтобы они принимали решения о ситуациях, в которых готовы оказаться. Более того, моделируемые ситуации часто сильно далеки от реальности. Критические ситуации потому и критические, что не оставляют времени на принятие взвешенных решений, не дают возможности анализировать и оценивать жизнь тех или иных людей или даже животных. Почему были выбраны именно такие характеристики разных людей? И зачем вообще оценивать важность разных жизней, будто на такое решение действительно есть время в безвыходной ситуации.

Сама идея оценивания и сравнения важности разных жизней — классика дилеммы вагонетки — глубоко ошибочна, хотя бы потому что не имеет «правильного» решения. А идея калькуляции этих решений тем более не приводит к верному результату. Даже если простое большинство ответов окажется приемлемым в этом контексте, обществе или историческом срезе, это не означает, что то же решение будет адекватным для других обстоятельств. Постановка проблемы в рамки моральной дилеммы ставит под вопрос этичность самого теста.

Нельзя игнорировать масштабный выхлоп от этого проекта в медиа и среди обычных пользователей. Такие тесты, как дрова в костре, подогревают публичный алармизм. И в 2015 году, когда тест только придумали и запустили, и в 2018 году, когда вышел первый публичный отчет, происходили большие волны обсуждения моральной машины. Причем медиа подхватывает неоднозначность теста и драматизируют его последствия. Просто погуглите «этика беспилотных автомобилей», и вы достаточно быстро обнаружите примерно такое облако слов: «убивать», «давить», «убийца», «опасности». Конечно, медиа производят и более конструктивные или нейтральные идеи относительно этики беспилотников, но уровень публичного алармизма поддерживается именно благодаря драматизации нерешаемых дилемм.

Есть и другие способы или попытки решать этические проблемы беспилотников. Ими занимаются социальные исследователи технологий, которые продолжают критиковать такие однобокие подходы, как машина морали. О них мы поговорим в следующий раз.

Автор: Лилия Земнухова ПМ

_________________
«Если ты ненавидишь, значит тебя победили» – Конфуций
санек1211212212
Стаж: 9 лет 4 мес.
Сообщений: 101
Ratio: 17.699
Поблагодарили: 5409
100%
Откуда: Харьков
ukraine.gif
может ИИ вообще не должен допускать такой ситуации? например притормаживать перед переходом и по городу вообще не гнать выше разрешенной скорости, а при этих условиях он должен успеть затормозить.
И если уже какие то люди выскакивают прям перед машиной ИИ должен тормозить, а не крутить руль в отбойник или встречные машины или столбы. Если кто-то выскочил на дорогу, это его проблемы, а не мои.
wat902h
 
Стаж: 13 лет 10 мес.
Сообщений: 156
Ratio: 5.071
Поблагодарили: 255
100%
russia.gif
Все хотят давить старушек. Наверно, устали ждать наследство. А может, стоит сравнить скорость движения старушки и автомобиля? И дальность обнаружения, и реакцию, и маневренность. Все еще старушка виновата? Или эти авто - для улиц с беспилотными пешеходами? И для таких же пассажиров? А идея карать смертью за нарушение ПДД ... без комментариев.
Михаил
 
Стаж: 13 лет 2 мес.
Сообщений: 21356
Ratio: 22.972
100%
Отличная тема.
Пять Максимусу ))
danrecords2021
Стаж: 2 года 9 мес.
Сообщений: 72
Ratio: 9.337
100%
Откуда: Беларусь, Минск
belarus.gif
В наше время человеку иногда проблематично привить мораль, что уже про машину говорить...

_________________
Мир всегда против попсы
Михаил
 
Стаж: 13 лет 2 мес.
Сообщений: 21356
Ratio: 22.972
100%
Мое мнение такое - машина тогда должна самовзорваться (не повредив окружающих).
с содержимым

и тогда никто в таких ездить вообще не будет ))
и производить этот маразм некому будет за ненадобностью )
FilmUser
Стаж: 12 лет 8 мес.
Сообщений: 131
Ratio: 248.993
Поблагодарили: 26
100%
Мой вариант мало кому понравится, но после ознакомления с ситуациями, предлагаемыми в "моральной машине", я утвердился в мысли, что "страдать" в аварийной ситуации должен тот, кто движется быстрее – автомобиль, и не важно с автопилотом он или без.

Для предотвращения подобной ситуации автопилот должен проводить полную проверку всех систем перед поездкой, а также в течении поездки каждые три минуты (или каждые 5 км), проверять ту же тормозную систему кратковременным плавным замедлением. В случае обнаружения неисправности тормозной системы - остановить автомобиль двигателем и перейти в аварийное состояние.

В случае, если на дороге возникла нештатная ситуация между проверками и автомобиль не реагирует на использование тормозной системы - автопилот должен включить световую и звуковую сигнализацию, использовать максимальное замедление двигателем и отключиться от рулевого управления. За дальнейшее движение и последствия отвечают пассажиры, потому как являются инициаторами поездки.
sinky
Стаж: 16 лет 4 мес.
Сообщений: 11
Ratio: 5.292
100%
ussr.gif
dimitriy7 писал(а): Перейти к сообщению
По-моему, очевидно -- жертвовать надо теми, кто нарушил правила. Правильно выше написали: если вышел на дорогу на красный -- сам виноват, ничего личного, просто естественный отбор.


Не согласен, КАТЕГОРИЧЕСКИ!
Жертвовать в данном случае нужно криворукими разработчиками беспилотных автомобилей, которые допускают возникновение таких ситуаций.
И придурками, которые создают такие опросники.

Добавлено спустя 44 секунды:
hupakabras
Стаж: 11 лет 6 мес.
Сообщений: 3
Ratio: 16.841
0%
Почему все обеспокоены как должен действовать ИИ и ни кому не интересно как в этом случае действует человек? Наверняка многие из здесь присутствующих попадали в аварии, расскажите как выбирали куда врезаться? Я понимаю что ИИ реагирует быстрее чем человек, но законы физики он отменять не умеет.
makatero
Стаж: 11 лет 10 мес.
Сообщений: 351
Ratio: 8.697
Поблагодарили: 374
5.8%
Это не этический вопрос. На лицо подмена понятий. Это вопрос о финансовой ответственности страховой компании, которая предоставляет услуги корпорации выпускающей автопилотов.
Значит решение этого вопроса не в моральной а в финансовой плоскости.
Автопилот должен спасать того, чья страховка дороже. Элементарно.
sologovay
Стаж: 4 года 5 мес.
Сообщений: 79
Ratio: 17.377
28.57%
Вывод один. Правила дорожного движения это филькина грамота. Их даже компу нельзя объяснит.
savsoft
Стаж: 12 лет 10 мес.
Сообщений: 3045
Ratio: 1.17
37.62%
санек1211212212 писал(а): Перейти к сообщению
может ИИ вообще не должен допускать такой ситуации? например притормаживать перед переходом и по городу вообще не гнать выше разрешенной скорости, а при этих условиях он должен успеть затормозить.
И если уже какие то люди выскакивают прям перед машиной ИИ должен тормозить, а не крутить руль в отбойник или встречные машины или столбы. Если кто-то выскочил на дорогу, это его проблемы, а не мои.

Ну так кто больше виноват в ДТП в Харькове. Зайцева, успевавшая проскочить на красный, если бы ее в бок не двинули. Или водитель стартанувший на мгновение раньше, чем надо, и сбивший Зайцеву в остановку?
makatero
Стаж: 11 лет 10 мес.
Сообщений: 351
Ratio: 8.697
Поблагодарили: 374
5.8%
hupakabras писал(а): Перейти к сообщению
Почему все обеспокоены как должен действовать ИИ и ни кому не интересно как в этом случае действует человек? Наверняка многие из здесь присутствующих попадали в аварии, расскажите как выбирали куда врезаться? Я понимаю что ИИ реагирует быстрее чем человек, но законы физики он отменять не умеет.

Потому, что это водитель несет личную ответственность за вои решения. А в случае автопилота нет никакой личности. Это вызывает судороги правосудия. Преступление есть, а преступника нет.
Водителя, сбившего пешехода можно судить. А автопилота нельзя судить, а корпорацию, которая его выпускает судить очень сложно.
pandorum77
Стаж: 14 лет 1 мес.
Сообщений: 31
Ratio: 13.597
1.28%
zimbabwe.gif
Машина должна соблюдать ПДД. И другие машины и пешеходы должны их соблюдать. Если кто-то решает их нарушить и самовыпилиться, то туда ему и дорога, решать кем пожертвовать тут не требуется. Все эти морально-этические проблемы - выдумка   мешающих техническому прогрессу и выдумывающих подобные опросы. Если их послушать, то и огонь с колесом не стоило изобретать, а то вдруг какой-нибудь *удак себя подожжет или переедет.
sologovay
Стаж: 4 года 5 мес.
Сообщений: 79
Ratio: 17.377
28.57%
pandorum77 писал(а): Перейти к сообщению
Машина должна соблюдать ПДД. И другие машины и пешеходы должны их соблюдать. Если кто-то решает их нарушить и самовыпилиться, то туда ему и дорога, решать кем пожертвовать тут не требуется. Все эти морально-этические проблемы - выдумка   мешающих техническому прогрессу и выдумывающих подобные опросы. Если их послушать, то и огонь с колесом не стоило изобретать, а то вдруг какой-нибудь *удак себя подожжет или переедет.

Машина нарушителя с ИИ должна самоуничтожиться. ))))
ms-medit
Стаж: 2 года 8 мес.
Сообщений: 260
Ratio: 1.863
100%
Откуда: Параллельная Реальность
Вместо того чтобы решать, как избежать подобной ситуации, они решают кого можно убить в данной ситуации. Гениальность злодеяния зашкаливает.

_________________
Не ищите истины, её просто нет! (c)
Показать сообщения:   
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Автомобилисты здесь! Часовой пояс: GMT + 3
Страницы:   Пред.  1, 2, 3, 4, 5, 6  След.
Страница 5 из 6