Прочее непознанное

Как решать моральные дилеммы, связанные с человеческими жизнями? Вопрос ниже в пояснениях.

Искусственный интеллект стал реальностью и уже идут разработки по его использованию в качестве водителя авто https://youtu.be/y81ryf_eDHA Это снизит аварийность так как ии быстрее и внимательнее нежели человек И тем не менее аварийные ситуации возникать будут
В случае когда автомобилем управляет человек в аварийной ситуации человек инстинктивно сворачивает и под удар чаще попадают пассажиры нежели водители так как инстинкт самосохранения топовый
Но у ии нет такового инстинкта и его создателям нужно расставить приоритет для ии Если бы вы были разработчиком ии жизнь кого вы бы обозначили как более важную того кто на пассажирском месте или жизнь владельца авто то есть того кто занимает место водителя ?

Или в ситуации когда ии должен выбрать сбить мать с ребенком и спасти пассажиров авто или наоборот свернуть спасти мать с ребенком на дороге но при этом убить тех кто находится в авто направив машину на высокой скорости к примеру в столб. Как расставить приоритеты ?
Предоставить выбор каждому покупателю\владельцу авто. Пусть ставит галочку в опциях там, где он считает правильным. Понятно где большинство поставит? Компания-производитель отмажется от всех возможных последствий принятия решения в подобных случаях.

Предупредить покупателя\владельца авто, что судить его будет тоже автоматика, автоматически, основываясь на данных телеметрии, переданной в момент происшествия.

Если он будет признан виновным в происшествии (неправильно настроил моральный блок) - его автоматически изымут из общества и поместят в автоматическое пенитенциарное заведение (тюрьму) под наблюдение автоматики. Которая также будет принимать все решения по фактам нарушения режима и наказывать за это автоматически (во избежание распространения коррупции).

Штрафы за все нарушения и преступления, совершенные транспортным средством двигавшимся в соответствии с заданными им опциями, будут также взиматься автоматически, прямо с его электронного счета (банковской карточки), по решению автоматики. К людям в ГБДД обращаться с аппеляциями решений автоматики будет затруднительно - они нехера не понимают в автоматике.

И т. д. и т. п. Т. о., гражданин превратиться из субъекта, в объект, обрабатываемой автоматической системой, в нечто вроде лабораторной крысы в механизме. Лишь бы поменьше беспокоил персонально властью наделенных.

Весело, правда? Нравится такое будущее?
Даша))) I 592198*
Даша))) I 592198*
63 102
Лучший ответ
Ирина Измалкова брависсимо
Даша))) I 592198* Тут г-на Себранта (главный менеджер по технолог. маркетингу) из корпорации Яндекс спросили на лекции (зря он пошел в народ)) - может ли он объяснить почему в результатах выдачи по определенному запросу в их поисковой системе конкретный определенный сайт находится на конкретном месте.

Себрант сказал, что алгоритмы принятия автоматического решения ранжирования сайта настолько сложны, логически запутаны, создавались в разное время разными людьми, что объяснить результат действия автоматики человеку не представляется возможным. Известны лишь только общие принципы работы автоматики. )) В Гугле, думаю, результат еще запутаннее.

По-моему это - хай класс антиутопии. )
Александр Горнин чё-то как-то жутковато... Хотя, возможно, беспристрастно... Ведь живой судья или вообще персона, решающая так или иначе твою судьбу, может закатать тебя так, что мама, не горюй! - чиста не понравился. Правда, есть и шанс на послабления, если понравишься. Попадалово...
Думаю, надо для начала поговорить с бывалыми водителями - как они решали такие проблемы.
Оксана Цыгольник В случае когда автомобилем управляет человек в аварийной ситуации человек инстинктивно сворачивает и под удар чаще попадают пассажиры нежели водители так как инстинкт самосохранения топовый
Нахера нужен такой интеллект?
Оксана Цыгольник СМОТРИ ВИДЕ ПО ССЫЛКЕ
Ну он должен определить у кого больше шансы на выживание. Было в фильме "Я робот"
Юрий Гусев
Юрий Гусев
46 686