Кароче берем законы робототехники Азимова. / Буквы на белом фоне

Буквы на белом фоне 

Кароче берем законы робототехники Азимова. Записываем в обратном порядке.

Получаем законы гуманизма футанарей

1.	Человек должен защищать свою жизнь.
2.	Человек должен исполнять приказы других людей.
3.	Человек должен защищать жизнь других людей.,Буквы на белом фоне
Подробнее
1. Человек должен защищать свою жизнь. 2. Человек должен исполнять приказы других людей. 3. Человек должен защищать жизнь других людей.
Буквы на белом фоне
Еще на тему
Развернуть
а бонусом: нарушение закона гуманизма ведет к дегуманизации
получаем коммунизм!
m1ka07 m1ka07 08.07.202308:37 ответить ссылка -2.6
да ладно, в умелых руках че не делай получишь коммунизм
Особенно второй.
idlbi idlbi 08.07.202308:37 ответить ссылка 1.8
Футанарей? Ну... ладно.
Спорно.
Особенно п.2.
экстремальнеко, но че бы мысленно не поэксперементировать
Ну знаете ли.
Эти эксперименты обычно заканчиваются в кровати.
К сожалению всего минут на 10.
Вот хуйня, вы забыли, что второй и третий законы робототехники оканчиваются условиями "если это не противоречит первому закону", "если это не противоречит первому и второму закону".
Получается ваш гуманизм - не убивать людей, но если приказали, то хуй с ними.
все так. но как отдать приказ убить человека если ты ограничен третьим законом?
В оригинале стоит "если не противоречит первым двум законам..."
тут как так же, просто не хотелось нагромождать. иначе б зачем было изменять порядок приоритета.
Нулевым пунктом - запрет кампудахтерных игорей!!!
Ну это по умолчанию, они же во всём виноваты!
Там как у робокопа есть скрытые директивы, например, можно ёбнутьткак нехуй-похуй хоть пару тысяч человек, если это спасёт человечество.
Тоесть если кто-то хочет выпустить опасный вирус, взорвать что-то, то дилемму вагонетки робот решает очень просто.
MaXM00D MaXM00D 08.07.202309:27 ответить ссылка 0.0
Доярка, а ну метнись ка мне за пивом!
вообще-то пользоваться другими им в ущерб противоречит третьему закону. а имполнять тикие приказы в ущерб себе противоречит первому.
прикажи что-нибудь что мне не сложно
Твоей жизни ничего при этом не будет угрожать. Никакого противоречия.
Чёт как то условие криво поставлено. Если записать принципы робототехники в обратном порядке, это просто будет сначяла 3 потом 2 и 1.

Тут же заменено робот на человек и действие на противоположное.

Если хотели просто инвертировать законы, то они должны выглядеть так:

1. Человек обязан причинять вред роботу.

2. Человек не должен повиноваться каким либо приказам робота, даже в тех случяях, когда эти приказы противоречят первому закону.

3. Человек не обязан заботится о безопасности других до тех пор, пока это это не противоречит первым двум законам человекокультуры.
ViAyayay ViAyayay 08.07.202309:43 ответить ссылка 1.3
2 человек должен выполнять приказы других людей. Человечество вымерло, потому что какие-то дебилы приказали запретить прививки, медикаменты и любую промышленность, ибо губит природу. И обязательно найдется судило, который будет помыкать другими раздавая приказы. Ну и вишенка в жопе - конфликт противоречивых приказов.
ну давайте по порядку,
во-первых если от прививок медикаментов и промышленности не природе а именно людям вреда больше чем пользы то нахуй такую промышленность.
во-вторых если "мудило" не приченяет вреда своими приказами то в чем проблема?
насчет конфликтов можно поразмыслить. возможно можно рассматривать конфликтный приказ как вред
Проблема в том, что прививки, медикаменты и медицина спасла гораздо больше жизней, чем сломала, а промышленность по сравнению с этими "зелёными" решениями выглядит вполне безвредно (не говоря уже о том, что эта самая промышленность дала тебе возможность сидеть на этом самом джое и получать прочие блага цивилизации, втч не умереть с голоду от перенаселения). Вспомнить те же ветряки, что вместе с зелёным электричеством начали разрушение почвы или что-то такое
Во-вторых если "мудило" отдает приказы, которые не вредят другим, то это не мудило, а просто какой-то чел с повелительными наклонностями. Проблема в том, что найдется тот, кто будет раздавать вредящие приказы.
На счет конфликтов нет четкого закона, так что размышлять не о чем. Либо любой приказ будет игнорироваться, поскольку большинство действий так или иначе вредят, пусть некоторый вред несет конструктивную цель (те же прививки, это вред: внесение в организм ослабленного вируса с целью выработки иммунитета), но поскольку это пермаментный вред, то никто этим заниматься не будет и даже будет спасать по мере своих сил. Либо перманентный вред вред не учитывается и тогда пойдет другая туфта, по принципу "выпий мышьяк, прямо сейчас это тебе навредит, но потом всё будет норм". третья туфта: Учитывается долговременный вред. в зависимости от долговременности получаем впоть до "все равно все действия сведутся к смерти, так спасем же человечество от самого себя".
Так что весь это бред со "подчиняться всем людям" не будет работать. Нужна конкретная группа лиц, которая будет игнорировать чужие приказы и сможет отдавать приказы. Соответственно все остальные будут подчиняться и не смогут отдавать приказы. Попросту говоря - правительство. Переход из одой касты в другую отдельный вопрос, как и выбор параметров по которым выбирается правящая группа. в случае с роботами это просто - люди. в случае с людьми и людьми сложно. всякие там показатели морали, iq, принципы. тут никогда не угадаешь и не буду скатываться в политоту.
Вспомнился "я робот". Робот не может причинить вред человеку. Но проф сделал робота, который мог. Да Санни мог вообще не прятаться, просто сказать, что получил приказ сломать окно и встать максимально далеко от окна. Или вовсе уйти в перезагрузку.
Ну, те кто читал Азимова знают что есть и четвертый закон....Нулевой закон....
ManKey ManKey 08.07.202312:32 ответить ссылка 0.0
только у азимова это был нулевой закон с наивысшим приоритетом, а тут он будет четвертым с низшим. т.е равть жопу ради абстрактного спасения человечества можно только если это не вредит ни тебе ни другим. что как на мой взляд тоже отлично вписывается в то что это в первую очередь гуманизм.
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
Я вот не жалею, что не закупился биткоинами, когда они стоили по 15 баксов. Потому что если бы ими закупился ИМЕННО Я, биткоин бы щас стоил один доллар максимум.
подробнее»

биткоины неудачник закон подлости Буквы на белом фоне

Я вот не жалею, что не закупился биткоинами, когда они стоили по 15 баксов. Потому что если бы ими закупился ИМЕННО Я, биткоин бы щас стоил один доллар максимум.
На случай если неудачно припаркуюсь у себя во дворе приплачиваю местным бомжам. Чтоб когда спросят:"бл*ть, чья это машина?!" они выскакивали и пели :"Маркиза! Маркиза! Маркиза Карабаса!"
подробнее»

Буквы на белом фоне текст на белом фоне

На случай если неудачно припаркуюсь у себя во дворе приплачиваю местным бомжам. Чтоб когда спросят:"бл*ть, чья это машина?!" они выскакивали и пели :"Маркиза! Маркиза! Маркиза Карабаса!"
У камня желаний.
1)	Ты получаешь сразу 1$ млн.
2)	Ты получаешь по 50 рублей каждый раз, когда тебе врут.
-	Я выбираю второй вариант.
Чуть позже дома.
-	Мама, как я выгляжу?
-	Отлично, сынок.
*СМС на телефоне* зачислено 100р.
подробнее»

Буквы на белом фоне Буквы на фоне

У камня желаний. 1) Ты получаешь сразу 1$ млн. 2) Ты получаешь по 50 рублей каждый раз, когда тебе врут. - Я выбираю второй вариант. Чуть позже дома. - Мама, как я выгляжу? - Отлично, сынок. *СМС на телефоне* зачислено 100р.
Изнасилует робот, но сядет программист
В 2018 году в продаже появятся первые секс-роботы-мужчины. Если такой робот гипотетически изнасилует женщину, ответственность может лечь на его разработчика.
«[Роботы] - это неодушевленные устройства, подчиняющиеся предустановленным алгоритмам. Поэтому, если
подробнее»

робототехника Буквы на белом фоне роботы изнасилование

Изнасилует робот, но сядет программист В 2018 году в продаже появятся первые секс-роботы-мужчины. Если такой робот гипотетически изнасилует женщину, ответственность может лечь на его разработчика. «[Роботы] - это неодушевленные устройства, подчиняющиеся предустановленным алгоритмам. Поэтому, если