Техника

Робот не может причинить вред или своим бездействием допустить вред человеку? А если робот окажется в безвыходном полож.?

Например, автомобиль едет по трассе на автопилоте, и неожиданно с обочины выпрыгивает человек. Учитывая достаточно высокую скорость автомобиля допустим, что любой маневр на данном участке дороги приведет к смерти водителя или пешехода. Что должен делать автопилот?
Вызвать скорую помощь
Евгений ....
Евгений ....
63 228
Лучший ответ
Елена Колодницкая Ага... Психиатрическую... :((
Елена Колодницкая Ну дык, как в старом анекдоте: у "ЗиЛ"а открывается капот, водила - "Видимость - ноль, иду по приборам!"
ракета с самонаведением - тоже робот. она как раз выбирает, как бы ей угробить побольше людей.
Сергей Ильчук Вообще-то - нет. Ракета только выбирает путь следования к ЗАДАННОЙ человеком цели, и не более того. Вот когда будут полностью автоматические системы обороны (или нападения?) - тогда да.
Вам стоит сходить на лекции Петра Левича из Сколково-Роботикс. Он читает лекции на тему киберэтики, и собирает приличные аудитории.
И вопрос пока неясно как решать. А он становится важным при распространении автомобильных автопилотов, как на Гулмобиле или Тесле....

И пока никто не знает как Ваш вопрос - или ещё более острые (типа робота кто-то подрезал так, что он должен выбирать, разбить свой автомобиль с 4 пассажирами или въехать в автобусную остановку с 10-ком ожидающих...

Ну и вариант ответа:

Pavel Luksha______________
30 января________________ ·
Мой коллега Peter Levich любит обсуждать так называемую проблему вагонетки. Про то, кого и почему будут давить беспилотные автомобили, убивать беспилотные истребители и бить электрошоком автоматические кофеварки.
Я понял сегодня утром, что у этой проблемы есть два принципиальных решения. Условно, американское и китайское.
Американский вариант звучит так: при любых вариантах технология спасает ее пользователя (он же потребитель). Тот, кто вышел на дорогу перед беспилотником, сам виноват. Примерно в таком варианте в свое время внедрялся и автомобильный транспорт, толпы народа подавило, но это никого не остановило. Пусть остальные учатся избегать негативных эффектов новой продукции. Это, кстати, и на распространении Facebook заметно - куча негативных эффектов, но это проблемы получателей эффектов.
Второй вариант - китайский. Есть соображения общественной пользы. Условное государство присваивает каждому гражданину рейтинг. Например, оценку его ожидаемой пользы, в зависимости от возраста, уровня образования, достижений, социальной адаптированности и прочее. И из двух пользователей гибнет тот, кто с меньшим рейтингом. Ну или из двух групп - с меньшим совокупным. Если хулиган сумел направить беспилотник так, что тот врежется в нобелевского лауреата, то это проблемы хулигана. Но вот беспилотный автобус с пионерами нобелевского лауреата скорее всего задавит. Каждый гражданин носит идентификатор, а технология очень быстро может оценить, как и кого убивать в опасной ситуации. И опционально - пользователям опасной технологии с малым рейтингом не рекомендуют появляться в местах скопления людей с высоким рейтингом, поскольку это может быть смертельно для них самих. Все, дальше можно обсуждать, насколько рейтинги точны, как их улучшать, но принцип понятен.
По мне, американский способ понятнее, в нем есть открытость будущего и честность по отношению к тем, кто это будущее выбирает. Но почему-то кажется, что большинство государств на нашей планете будут постепенно двигаться в сторону китайского пути - оценка качества каждого гражданина, раздача преференций или наложение ограничений. А вы сами за какой вариант?

Ну и вся дискуссия о ПРОБЛЕМЕ ВАГОНЕТКИ из Вики:
https://ru.m.wikipedia.org/wiki/Проблема_вагонетки
У меня для тебя плохие новости - может. Некоторые из них для этого созданы, а другим вообще наплевать как-то, кто окажется, например, под его сварочным аппаратом.
Посмотри терминатор
Биг Шар
Биг Шар
50 477
Если робот в безвыходном положении, то надо судить конструктора робота, а также тех, кто принял его в эксплуатацию.
Они не выполнили своих обязанностей, за которые им деньги платят.
И это независимо от того, прыгал ли человек, или не прыгал.
M9
Mister 9
70 042
Гипотетически - войдёт в логический зашор и погибнет, пытаясь разрешить неразрешимую этическую дилемму (см., например, новеллу Ст. Лема "Лжец" из классического цикла "Я - робот").

В настоящее время ещё не создан ИИ уровня, способного руководствоваться этическими соображениями, изложенными в четырёх законах роботехники. Один из примеров отставания достижений действующей технологии от тн научной фантастики.
Мухан Аскарбек
Мухан Аскарбек
59 627
Михаил Клюкин пардон, а разве ''Я робот'' это у Лема?

Это вроде Азимов
Читай Айзека Азимова.
Вы имеете ввиду ТРИ ЗАКОНА РОБОТОТЕХНИКИ. Любой закон ограничивает и ограничивает некоторые значения. В описываемой вами ситуации виноваты конструкторы движущейся машины и тот, кто случайно или намеренно вышел/попал/оказался на пути транспортного средства. Оптимальным ответом на вопрос я считаю: обеспечить максимальную безопасность как водителя так и пешехода путём разделения пути пешехода и транспортного средства
Есть такая функция в тесле . Пилот сам выбирает в настройках как повести машине . Сбить человека или погибнуть
Татьяна Привалова(Сопова) вообще-то в Тесле нет автопилота:)