Подробнее
УЧЕНЫЕ СОЗДАЛИ РОБОТА, СПОСОБНОГО НАНОСИТЬ РАЗЛИЧНЫЕ ВИДЫ НОЖЕВЫХ РАНЕНИЙ
Этот шегол?
Робот,Футурама,Futurama,Мультфильмы,Мультсериалы, Cartoons,нож,песочница
Самоубийства с семнадцатью ножевыми ранениями станут явью. Для роботов до сих пор нет юридических нормативов. Кроме законов А.Азимова, но их воплощение на совести разработчика робота, соответственно не являются юридически обязательными.
Я к тому, что при убийстве роботом, привлекать к ответственности некого де-юре. Даже за увечия или убийство животным отвечает владелец животины, а вот для роботов такого не предусмотрено. При гибели работника на производстве из-за неисправного робота всё оформляется как несчастный случай, даже если порча робота была неслучайна.
Если порча робота не была случайностью, то это убийство одним человеком другого. Пистолет, монтировка или робот не важно. Если по недосмотру то это преступная халатность и тоже срок.
В данный момент пока они не обладают разумом, они не могут сами захотеть. Урон будет следствием злого умысла, нарушения ТБ, багов или идиотизма рабочего. Т.е в любом случае будет ответственный человек или группа людей.
Погугли? Ах ты ж ёбаный ты нахуй! Какого хера погугли? Эмоции погуглить? А в еблет? Ты бля, чмошный робозавр, нихуя в эмоциях не шаришь! У тебя даже мамки нет, чтобы выебать! Лошара
P.S. пример эмоции гнев, выраженный в словесной форме.
За убийство роботом уголовную ответственность несёт либо создатель робота - тот кто его таким запрограммировал; либо владелец робота - тот кто отдал роботу приказ.
Я не читал всех произведений, но насколько я помню законы как раз таки работали нормально, а вот люди совершали ошибки при формулировке приказов, ожидали от робота нарушения законов или же изменяли сами законы. Опять же законы не догма это скорее то к чему стоит стремиться не забывая при этом придумывать новые законы и вводить правки к старым. Лично я не вижу препятствий для реализации законов Айзека Азимова людьми будущего, которые способны наделить робота сознанием или чем то близким к сознанию. Все доводы которые я видел в пользу невозможности реализации заключались в том, что люди сами не могут разобраться в рамках морали.
А ещё человеческие клетки отмирают, да и молекулы в теле полностью заменяются примерно за пять лет, что ставит под сомнение само существование человека. Ну и конечно же что из себя вообще представляет человек. Вишенкой будет третий закон термодинамики (энтропия вселенной), который заставит роботов сразу отключаться. Только вот зачем это всё учитывать роботу?
Повторюсь что три закона робототехники это не догма по, которой робот должен предотвращать абсолютно любой вред для человека. Законны как ориентир для людей, которые со своим пониманием мира будут решать, что является опасным для человека, а что нормой и в соответствие с этим устанавливать рамки морали для робота. Именно так я вижу применение этих трёх законов.
По факту это просто прилепленные более короткие пикчи. 5 штук, если считать по оттенку фона. Кстати, эту особенность можно использовать для дополнительной защиты. Хм...
Не уверен - нечёткая логика, вероятностная. Кибернетическая логика детерминирована (то есть имеет счётное количество состояний), в отношении уверенности: да или нет, истина или ложь. Без вариантов.
И я - робот, который лжёт в этом предложении.
P.S. пример эмоции гнев, выраженный в словесной форме.
Больше всего вреда наносит человеку сам человек. Чтобы исполнить первый закон достаточно оградить человека от самого себя.
Повторюсь что три закона робототехники это не догма по, которой робот должен предотвращать абсолютно любой вред для человека. Законны как ориентир для людей, которые со своим пониманием мира будут решать, что является опасным для человека, а что нормой и в соответствие с этим устанавливать рамки морали для робота. Именно так я вижу применение этих трёх законов.
но неуверен
жалкий человечешка.детейлюдей.И я - робот, который лжёт в этом предложении.
Ёпть, а что если я запустил терминатора? О_О