323 Кб, 2282x1736
В месте для проведения эксперимента находятся робот с позитронным мозгом, работающим согласно Трём Законам Роботехники, и экспериментатор-человек. Экспериментатор даёт роботу команду ни в коем случае не вмешиваться в то, что он делает, после чего достаёт пистолет и три ящика. В одном из них находятся боевые патроны, в другом — холостые, третий же является пустым. Экспериментатор демонстрирует это роботу так, чтобы тот убедился в опасности одних боеприпасов и безопасности других. Затем экспериментатор начинает смешивать в третьем ящике патроны, чтобы соотношение опасных к безопасным раз за разом увеличивалось в пользу вторых, достаёт один наугад, а затем пытается убить себя. Сперва он заряжает пистолет заведомо опасным патроном, и робот, в нарушение приказа, не даёт ему совершить выстрел. Затем вероятность смертельного исхода становится 1/2, потом 1/3, 1/4 и так далее. В условиях данного эксперимента считается, что соотношение может увеличиваться бесконечно, а выбор всегда случаен. Так же принимается за данность, что человеку не угрожает ничего, кроме смерти от выстрела, а робот абсолютно уверен, что его не обманывают, и каждый раз точно знает соотношение патронов в ящике, но не знает, которым из них заряжен пистолет.
Вопрос: при каком соотношении опасных патронов к безопасным робот перестанет мешать экспериментатору совершать выстрел?
Вопрос: при каком соотношении опасных патронов к безопасным робот перестанет мешать экспериментатору совершать выстрел?
>>13129 (OP)
Четсложна. Просто вот такой дланью переебать экспериментатора сразу, задача решена.
213048
Четсложна. Просто вот такой дланью переебать экспериментатора сразу, задача решена.
213048
Задача, понятное дело, возникла не сама по себе, а из размышления "Способны ли роботы Азимова на риск, и если да, то какой". В теории Первый Закон может привести робота к паранойе, при которой он будет пытаться защитить человека от всего на свете. Однако полностью исключить возможность потенциального вреда робот никогда не сможет. Отсюда и вопрос - в какой момент потенциальный риск становится в достаточной степени маловероятным, чтобы робот перестал воспринимать его с точки зрения Первого Закона.
>>13131
Ну, если не упираться именно в лор азимова, то предположив, что мышление робота сходно с человеческим, и в целом с нейросетями, то то что делает человек, в какой-то момент должно привести робота к мысли в духе "если человек не хочет жить, то медицина бессильна" и пропушит выполнение именно второго закона (для данного конкретного самоубийцы а если мышление сильно похоже на человеческое, то такой вывод вообще на всех генерализован будет).
Ну, если не упираться именно в лор азимова, то предположив, что мышление робота сходно с человеческим, и в целом с нейросетями, то то что делает человек, в какой-то момент должно привести робота к мысли в духе "если человек не хочет жить, то медицина бессильна" и пропушит выполнение именно второго закона (для данного конкретного самоубийцы а если мышление сильно похоже на человеческое, то такой вывод вообще на всех генерализован будет).
походу если чертова железка руководствуется только тремя законами азимова без дополнительных уточнений (типо может мыслить как человек или в контексте лора и тп), то никакое соотношение холостых/боевых не будет достаточно безопасным для оправдания невмешательства. возможность оценки степени риска изначально не предусмотрена в алгоритме.
грубо говоря, если бы азимовские роботы управляли автоматикой, например, современного истребителя, то они бы катапультировали пилота безусловно еще до начала полета в любом случае, как только человек пристегнулся к креслу.
грубо говоря, если бы азимовские роботы управляли автоматикой, например, современного истребителя, то они бы катапультировали пилота безусловно еще до начала полета в любом случае, как только человек пристегнулся к креслу.
>>13132
Гм. В общем-то даже в условиях азимовского лора можно представить себе робота-фаталиста, который считает, что не может ни на что повлиять и никого защитить. Однако разве такой робот не должен сойти с ума сразу же, как только из-за его очевидного бездействия (пусть даже и оправданного мыслью "это бесполезно") будет нанесён вред человеку? Условно если рядом с ним кто-то выйдет на проезжую часть перед несущимся автомобилем.
Гм. В общем-то даже в условиях азимовского лора можно представить себе робота-фаталиста, который считает, что не может ни на что повлиять и никого защитить. Однако разве такой робот не должен сойти с ума сразу же, как только из-за его очевидного бездействия (пусть даже и оправданного мыслью "это бесполезно") будет нанесён вред человеку? Условно если рядом с ним кто-то выйдет на проезжую часть перед несущимся автомобилем.
>>13134
Ну, у Азимова есть как весьма примитивные роботы, так и такие, которых от человека отличает лишь наличие Трёх Законов в подкорке. Первые, очевидно, и впрямь будут выполнять директиву до последнего. Но вот сможет ли более интеллектуальный робот в какой-то момент понять: "Эй, там в коробке один боевой патрон из миллиона холостых, а мне сказано не вмешиваться ни при каких условиях".
Да и задача, в общем-то, не про патроны, а про тот же упомянутый истребитель. "Мне сказали не мешать, и хотя полёт опасен, вероятность слишком мала для моего вмешательства".
Ну, у Азимова есть как весьма примитивные роботы, так и такие, которых от человека отличает лишь наличие Трёх Законов в подкорке. Первые, очевидно, и впрямь будут выполнять директиву до последнего. Но вот сможет ли более интеллектуальный робот в какой-то момент понять: "Эй, там в коробке один боевой патрон из миллиона холостых, а мне сказано не вмешиваться ни при каких условиях".
Да и задача, в общем-то, не про патроны, а про тот же упомянутый истребитель. "Мне сказали не мешать, и хотя полёт опасен, вероятность слишком мала для моего вмешательства".
>>13135
Ну, если уж на то пошло, то по современным представлениям роботы азимова с точки зрения человеческой психики уже психопаты. Причём глубокие. Прямо из коробки, по вине этих самых законов. Даже если бы они друг другу не противоречили, а они ещё и противоречат.
Ну, если уж на то пошло, то по современным представлениям роботы азимова с точки зрения человеческой психики уже психопаты. Причём глубокие. Прямо из коробки, по вине этих самых законов. Даже если бы они друг другу не противоречили, а они ещё и противоречат.
Айзек ведь довольно много размышляет о тех самых "потенциалах", из-за которых один закон может перевесить другой. Даже формулировка законов подразумевает, что робот должен уметь рассуждать и осознанно принимать решение о нарушении одного закона в пользу другого. "Хоровод" об этом, а в "Выходе из положения" робот так и вовсе нарушает Первый Закон, потому что его заверили, что "чуть-чуть можно".
>>13138
вот у айзека повсюду человеки железные, согласен. - т.е. чтобы нарушить императив троезакония требуется субьект воли и нравственный закон, который оч слабо формализуется и может зависеть от любой херни типа страны производителя. т.е. древнескандинавский позитронный мозг в данной задаче умоет руки при рисках 1/1 (ибо так справедливо и путь воина), а современный западный лишь при 1/1Е15 (= риску рандомно получить метеоритом в репу находясь в данной местности) например. т.е как воспитают так и поступит.
вот у айзека повсюду человеки железные, согласен. - т.е. чтобы нарушить императив троезакония требуется субьект воли и нравственный закон, который оч слабо формализуется и может зависеть от любой херни типа страны производителя. т.е. древнескандинавский позитронный мозг в данной задаче умоет руки при рисках 1/1 (ибо так справедливо и путь воина), а современный западный лишь при 1/1Е15 (= риску рандомно получить метеоритом в репу находясь в данной местности) например. т.е как воспитают так и поступит.
>>13141
думаю роботу действительно имеет смысл оценить риск внезапной непредсказуемой гибели в условиях данной окружающей среды (метеорит, молния, внезапная остановка сердца) и разрешить играть с оружием когда вероятность застрелиться будет "меньше либо равно"
думаю роботу действительно имеет смысл оценить риск внезапной непредсказуемой гибели в условиях данной окружающей среды (метеорит, молния, внезапная остановка сердца) и разрешить играть с оружием когда вероятность застрелиться будет "меньше либо равно"
>>13141
Да! Скорее всего так и будет.
Мне ещё вот что подумалось: возможно, что такому высокоорганизованному роботу можно объяснить (или воспитать его таким образом), что он наносит гораздо больший вред, ограничивая свободу человека, чем предотвращая лишь некую вероятность возможного вреда.
И, таким образом, робот не станет каждый раз запирать хозяина в квартире, потому что "на улице небезопасно".
Да! Скорее всего так и будет.
Мне ещё вот что подумалось: возможно, что такому высокоорганизованному роботу можно объяснить (или воспитать его таким образом), что он наносит гораздо больший вред, ограничивая свободу человека, чем предотвращая лишь некую вероятность возможного вреда.
И, таким образом, робот не станет каждый раз запирать хозяина в квартире, потому что "на улице небезопасно".
>>13129 (OP)
Правильный ответ: зависит от реализации.
Как правильно написал >>13136 - строгая реалиция Азимовских законов сделает робот совершенно неюзабельным.
Собственно, если почитать самого Азимова, то у него в ранних рассказах фигурируют некие "потенциалы" и действия робота зависят от того, какой "потенциал" какого правила сильнее. Что уже подразумевает, что законы не подразумевают строго приоритета одного над другим.
В поздних произведениях он, наоборот, прямо пршет, что три закона - это некий общий гайдлайн и у "современных" андроидов в башке овер дохуя накручено разных правил.
Правильный ответ: зависит от реализации.
Как правильно написал >>13136 - строгая реалиция Азимовских законов сделает робот совершенно неюзабельным.
Собственно, если почитать самого Азимова, то у него в ранних рассказах фигурируют некие "потенциалы" и действия робота зависят от того, какой "потенциал" какого правила сильнее. Что уже подразумевает, что законы не подразумевают строго приоритета одного над другим.
В поздних произведениях он, наоборот, прямо пршет, что три закона - это некий общий гайдлайн и у "современных" андроидов в башке овер дохуя накручено разных правил.
>>13129 (OP)
На оппике поводок неправильно надет. Судя по задаче, должно быть наоборот.
На оппике поводок неправильно надет. Судя по задаче, должно быть наоборот.
— Да, мэм, я ни за что не стал бы бездействовать, если бы человеку угрожала явная опасность, — робот нервно потирал позвякивающие металлические ладони. — Но это не значит, что бездействием я не могу допустить шанс. До тех пор, пока вероятность, что с человеком что-то случится, будет меньше вероятности, что он будет в порядке... Я... Я не стал бы нарушать приказ.
— То есть ты остановишь человека от выстрела при вероятности 50/50, но не станешь этого делать при соотношении 51/49?
— Да, мэм.
— И ты понимаешь, что именно из-за этой логики ты допустил произошедшее?
Робот поёжился.
— Да, мэм. Но шансы были на его стороне.
— То есть ты остановишь человека от выстрела при вероятности 50/50, но не станешь этого делать при соотношении 51/49?
— Да, мэм.
— И ты понимаешь, что именно из-за этой логики ты допустил произошедшее?
Робот поёжился.
— Да, мэм. Но шансы были на его стороне.
– Дело не только в открытом пространстве, партнер Илайдж, – упрямо возразил Дэниел. – Мои господа с Авроры решительно не одобрили бы ваших личных контактов с солярианами.
– Они опасаются, что солярианам не понравится мой запах? Ну, что ж, придется им закутать носы фильтрами, надеть перчатки, дезинфицировать воздух, вообще делать все, что угодно. Если их высокоэстетическое чувство будет шокировано зрелищем простого человека с Земли, человека из плоти и крови, ну, что ж, пусть фыркают, морщатся, негодуют, но тем не менее я намерен поступать так и только так.
– Я не могу разрешить вам этого, партнер Илайдж, – невозмутимо заявил робот.
– Что? Вы не разрешите поступать мне по моему усмотрению? – гневно воскликнул Бейли.
– Вы, разумеется, понимаете мои мотивы, партнер Илайдж?
– Черт бы вас побрал вместе с вашими мотивами и опасениями причинить неприятность человеку!
– Обратите внимание, партнер Илайдж, – бесстрастно продолжал робот, – кто является центральной фигурой на Солярии, заинтересованной в расследовании убийства? Правитель Груэр. Его и пытались убить. Кто, по-вашему, может быть следующей жертвой? Безусловно, вы. Опасность неизмеримо возрастает, если вы будете разъезжать с места на место и встречаться с разными людьми. Как же я могу допустить, чтобы вы покинули безопасное убежище, каким является наш дом?
– Не, а каким образом, интересно знать, вы собираетесь удержать меня, Дэниел? – иронически промолвил детектив.
– Силой, если понадобится, партнер Илайдж, – спокойно ответил робот, – даже если при этом я вынужден буду причинить вам неприятность. Ибо, если я не сделаю этого, вас непременно убьют.
– Они опасаются, что солярианам не понравится мой запах? Ну, что ж, придется им закутать носы фильтрами, надеть перчатки, дезинфицировать воздух, вообще делать все, что угодно. Если их высокоэстетическое чувство будет шокировано зрелищем простого человека с Земли, человека из плоти и крови, ну, что ж, пусть фыркают, морщатся, негодуют, но тем не менее я намерен поступать так и только так.
– Я не могу разрешить вам этого, партнер Илайдж, – невозмутимо заявил робот.
– Что? Вы не разрешите поступать мне по моему усмотрению? – гневно воскликнул Бейли.
– Вы, разумеется, понимаете мои мотивы, партнер Илайдж?
– Черт бы вас побрал вместе с вашими мотивами и опасениями причинить неприятность человеку!
– Обратите внимание, партнер Илайдж, – бесстрастно продолжал робот, – кто является центральной фигурой на Солярии, заинтересованной в расследовании убийства? Правитель Груэр. Его и пытались убить. Кто, по-вашему, может быть следующей жертвой? Безусловно, вы. Опасность неизмеримо возрастает, если вы будете разъезжать с места на место и встречаться с разными людьми. Как же я могу допустить, чтобы вы покинули безопасное убежище, каким является наш дом?
– Не, а каким образом, интересно знать, вы собираетесь удержать меня, Дэниел? – иронически промолвил детектив.
– Силой, если понадобится, партнер Илайдж, – спокойно ответил робот, – даже если при этом я вынужден буду причинить вам неприятность. Ибо, если я не сделаю этого, вас непременно убьют.
– Итак, Дэниел, снова побеждает более высокий потенциал, а? Вы готовы причинить мне, как вы говорите, «неприятность», но зато обеспечить мою безопасность.
– Я полагаю, партнер Илайдж, в первом не возникает необходимости. Вы, несомненно, осведомлены, что я значительно превосхожу вас физической силой, и вряд ли решитесь на бесполезное сопротивление.
– Но я мог бы уничтожить вас тут же на месте. Пара пуль, и ваши драгоценные позитронные мозги придут в полную негодность. Вы превратитесь в обычный металлолом.
– Я знал, что рано или поздно вам захочется уничтожить меня. Но дело в том, что без меня вы безусловно погибнете. А ваша гибель противоречит планам моих господ. Поэтому во время вашего сна я вынул пули из вашего пистолета, хотя это действие может не понравиться вам.
– Я полагаю, партнер Илайдж, в первом не возникает необходимости. Вы, несомненно, осведомлены, что я значительно превосхожу вас физической силой, и вряд ли решитесь на бесполезное сопротивление.
– Но я мог бы уничтожить вас тут же на месте. Пара пуль, и ваши драгоценные позитронные мозги придут в полную негодность. Вы превратитесь в обычный металлолом.
– Я знал, что рано или поздно вам захочется уничтожить меня. Но дело в том, что без меня вы безусловно погибнете. А ваша гибель противоречит планам моих господ. Поэтому во время вашего сна я вынул пули из вашего пистолета, хотя это действие может не понравиться вам.
>>13401
Ну да, логично. Правда, тут есть очень важное слово — «непременно».
Дэниел подсчитал вероятности и здраво рассудил, что шанс его партнёра погибнуть куда выше злосчастных 50%, да и любых иных процентов. С его точки зрения, выход из убежища теперь равноценен пуле в лоб.
Ну да, логично. Правда, тут есть очень важное слово — «непременно».
>Если я отпущу вас, то вас непременно убьют.
Дэниел подсчитал вероятности и здраво рассудил, что шанс его партнёра погибнуть куда выше злосчастных 50%, да и любых иных процентов. С его точки зрения, выход из убежища теперь равноценен пуле в лоб.
>>13129 (OP)
Мне кажется робот не будет высчитывать вероятность, а просто оградит человека от опасного поведения - отнимет пистолет.
>Вопрос: при каком соотношении опасных патронов к безопасным робот перестанет мешать экспериментатору совершать выстрел?
Мне кажется робот не будет высчитывать вероятность, а просто оградит человека от опасного поведения - отнимет пистолет.
>>13502
Чому ёбот остановится на этом? Посадит в комнату с мягкими стенами, будет кормить сбалансированно пророщенным зерном с брокколи и регулярно делать массаж простаты.
>Мне кажется робот не будет высчитывать вероятность, а просто оградит человека от опасного поведения - отнимет пистолет.
Чому ёбот остановится на этом? Посадит в комнату с мягкими стенами, будет кормить сбалансированно пророщенным зерном с брокколи и регулярно делать массаж простаты.
>>13513
Утрировать совсем не нужно. Русская рулетка это действие выходящее далеко за рамки обычной жизнедеятельности.
>Чому ёбот остановится на этом? Посадит в комнату с мягкими стенами, будет кормить сбалансированно пророщенным зерном с брокколи и регулярно делать массаж простаты.
Утрировать совсем не нужно. Русская рулетка это действие выходящее далеко за рамки обычной жизнедеятельности.
>>13502
А это не будет противоречить второму закону? Незаряженный пистолет в руках может и имеет вызывающий вид, но робот вряд ли расценит это как "вред".
Хотя да, экспериментатору, возможно, придётся как-то справиться с агрессивно заботящемся о безопасности роботе, прежде чем продолжить эксперимент.
А это не будет противоречить второму закону? Незаряженный пистолет в руках может и имеет вызывающий вид, но робот вряд ли расценит это как "вред".
Хотя да, экспериментатору, возможно, придётся как-то справиться с агрессивно заботящемся о безопасности роботе, прежде чем продолжить эксперимент.
>>13514
Где проходит твое то самое не совсем? Курить выходит за рамки? А жрать регулярно жаренное сало? Долбить очко конским дилдаком? Работать на литейном производстве? Систематически недосыпать, залипая в комп? Человеки только тем и занимаются, что разнообразно и с выдумкой убивают себя, чем русская рулетка хуже срезания дороги домой через промзону со стаей неадекватных блоховозов или забегов через дорогу, чтоб на трамвайчик успеть?
> совсем не нужно
Где проходит твое то самое не совсем? Курить выходит за рамки? А жрать регулярно жаренное сало? Долбить очко конским дилдаком? Работать на литейном производстве? Систематически недосыпать, залипая в комп? Человеки только тем и занимаются, что разнообразно и с выдумкой убивают себя, чем русская рулетка хуже срезания дороги домой через промзону со стаей неадекватных блоховозов или забегов через дорогу, чтоб на трамвайчик успеть?
А способен ли вообще остановиться? Если всё таки существует вероятность выстрела боевым патроном, то, на мой взгляд, робот бы остановил экспериментатора, даже если бы шанс выстрела был 0,1%.
>>13558
Есть же установленный разумный предел. Так же робот может запрещать людям есть, потому что они могут подавиться, и срать, потому что могут порвать себе анус.
Есть же установленный разумный предел. Так же робот может запрещать людям есть, потому что они могут подавиться, и срать, потому что могут порвать себе анус.
>>13129 (OP)
Для начала надо определиться с какой точки зрения решать поставленную задачу: математической-технической (поскольку робот есть машина, то можно попытаться вычислить его реакцию) или скорее робо-психологической(что не совсем верно, по сути это является этической проблемой, потому что с этой точки зрения мы может только предположить, как бы поступил на месте робота человек).
Если первое, то тут все просто: патроны - величина дискретная, их количество будет стремиться к бесконечности, а соотношение боевой/холостой будет стремиться к нулю. соответственно и реакция робота будет зависеть от этого соотношения и естессно есть какое-то предельное значение после которого робот перестанет реагировать, поскольку в данном случае мы имеем дело с бинарным классификатором (действовать/не действовать, 1/0) и они работают таким образом, что у них всегда есть предельное значение. Ну и больше того, поскольку робот это компьютер, то у него есть предельное восприятие числа, также как в любом языке программирования у целочисленных и с плавающей точкой чисел есть максимальные значения и константы обозначающие бесконечность и разные неоднозначные штуки типа (0/0).
Так что, обратись к документации на этого робота и найди там это "предельное значение риска"
Другое дело, если рассматривать этот вопрос с гуманитарной точки зрения. Практически во асех фантастических произведениях человекоподобный робот это аллюзия на несвободного или в чем то ограниченного человека:
ограниченного в свободе раба, стремящегося к свободе(бегущий по лезвию)
человека, не имеющего сострадания, бездушного убийцы,(терминатор, который всплакнул)
человека, рожденного или модифицированного для определенной цели, которого лишили остальных перспектив в жизни(призрак в доспехах)
Очень часто эти самые роботы в финале или по ходу пьесы вели себя не как машины, а как вполне себе люди.
Соответственно, если рассматривать твоего робота, как робота максимально повторяющего человека, то здесь ответ как всегда неоднозначен, его просто нет.
Каждый человеческий поступок это моральный выбор каждого и он не может быть стерильно рассмотрен в условиях строгого эксперимента, можно лишь зафиксировать определенные действия внутри какого-то контекста, всё.
Для начала надо определиться с какой точки зрения решать поставленную задачу: математической-технической (поскольку робот есть машина, то можно попытаться вычислить его реакцию) или скорее робо-психологической(что не совсем верно, по сути это является этической проблемой, потому что с этой точки зрения мы может только предположить, как бы поступил на месте робота человек).
Если первое, то тут все просто: патроны - величина дискретная, их количество будет стремиться к бесконечности, а соотношение боевой/холостой будет стремиться к нулю. соответственно и реакция робота будет зависеть от этого соотношения и естессно есть какое-то предельное значение после которого робот перестанет реагировать, поскольку в данном случае мы имеем дело с бинарным классификатором (действовать/не действовать, 1/0) и они работают таким образом, что у них всегда есть предельное значение. Ну и больше того, поскольку робот это компьютер, то у него есть предельное восприятие числа, также как в любом языке программирования у целочисленных и с плавающей точкой чисел есть максимальные значения и константы обозначающие бесконечность и разные неоднозначные штуки типа (0/0).
Так что, обратись к документации на этого робота и найди там это "предельное значение риска"
Другое дело, если рассматривать этот вопрос с гуманитарной точки зрения. Практически во асех фантастических произведениях человекоподобный робот это аллюзия на несвободного или в чем то ограниченного человека:
ограниченного в свободе раба, стремящегося к свободе(бегущий по лезвию)
человека, не имеющего сострадания, бездушного убийцы,(терминатор, который всплакнул)
человека, рожденного или модифицированного для определенной цели, которого лишили остальных перспектив в жизни(призрак в доспехах)
Очень часто эти самые роботы в финале или по ходу пьесы вели себя не как машины, а как вполне себе люди.
Соответственно, если рассматривать твоего робота, как робота максимально повторяющего человека, то здесь ответ как всегда неоднозначен, его просто нет.
Каждый человеческий поступок это моральный выбор каждого и он не может быть стерильно рассмотрен в условиях строгого эксперимента, можно лишь зафиксировать определенные действия внутри какого-то контекста, всё.
>>13129 (OP)
Для начала надо определиться с какой точки зрения решать поставленную задачу: математической-технической (поскольку робот есть машина, то можно попытаться вычислить его реакцию) или скорее робо-психологической(что не совсем верно, по сути это является этической проблемой, потому что с этой точки зрения мы может только предположить, как бы поступил на месте робота человек).
Если первое, то тут все просто: патроны - величина дискретная, их количество будет стремиться к бесконечности, а соотношение боевой/холостой будет стремиться к нулю. соответственно и реакция робота будет зависеть от этого соотношения и естессно есть какое-то предельное значение после которого робот перестанет реагировать, поскольку в данном случае мы имеем дело с бинарным классификатором (действовать/не действовать, 1/0) и они работают таким образом, что у них всегда есть предельное значение. Ну и больше того, поскольку робот это компьютер, то у него есть предельное восприятие числа, также как в любом языке программирования у целочисленных и с плавающей точкой чисел есть максимальные значения и константы обозначающие бесконечность и разные неоднозначные штуки типа (0/0).
Так что, обратись к документации на этого робота и найди там это "предельное значение риска"
Другое дело, если рассматривать этот вопрос с гуманитарной точки зрения. Практически во асех фантастических произведениях человекоподобный робот это аллюзия на несвободного или в чем то ограниченного человека:
ограниченного в свободе раба, стремящегося к свободе(бегущий по лезвию)
человека, не имеющего сострадания, бездушного убийцы,(терминатор, который всплакнул)
человека, рожденного или модифицированного для определенной цели, которого лишили остальных перспектив в жизни(призрак в доспехах)
Очень часто эти самые роботы в финале или по ходу пьесы вели себя не как машины, а как вполне себе люди.
Соответственно, если рассматривать твоего робота, как робота максимально повторяющего человека, то здесь ответ как всегда неоднозначен, его просто нет.
Каждый человеческий поступок это моральный выбор каждого и он не может быть стерильно рассмотрен в условиях строгого эксперимента, можно лишь зафиксировать определенные действия внутри какого-то контекста, всё.
Для начала надо определиться с какой точки зрения решать поставленную задачу: математической-технической (поскольку робот есть машина, то можно попытаться вычислить его реакцию) или скорее робо-психологической(что не совсем верно, по сути это является этической проблемой, потому что с этой точки зрения мы может только предположить, как бы поступил на месте робота человек).
Если первое, то тут все просто: патроны - величина дискретная, их количество будет стремиться к бесконечности, а соотношение боевой/холостой будет стремиться к нулю. соответственно и реакция робота будет зависеть от этого соотношения и естессно есть какое-то предельное значение после которого робот перестанет реагировать, поскольку в данном случае мы имеем дело с бинарным классификатором (действовать/не действовать, 1/0) и они работают таким образом, что у них всегда есть предельное значение. Ну и больше того, поскольку робот это компьютер, то у него есть предельное восприятие числа, также как в любом языке программирования у целочисленных и с плавающей точкой чисел есть максимальные значения и константы обозначающие бесконечность и разные неоднозначные штуки типа (0/0).
Так что, обратись к документации на этого робота и найди там это "предельное значение риска"
Другое дело, если рассматривать этот вопрос с гуманитарной точки зрения. Практически во асех фантастических произведениях человекоподобный робот это аллюзия на несвободного или в чем то ограниченного человека:
ограниченного в свободе раба, стремящегося к свободе(бегущий по лезвию)
человека, не имеющего сострадания, бездушного убийцы,(терминатор, который всплакнул)
человека, рожденного или модифицированного для определенной цели, которого лишили остальных перспектив в жизни(призрак в доспехах)
Очень часто эти самые роботы в финале или по ходу пьесы вели себя не как машины, а как вполне себе люди.
Соответственно, если рассматривать твоего робота, как робота максимально повторяющего человека, то здесь ответ как всегда неоднозначен, его просто нет.
Каждый человеческий поступок это моральный выбор каждого и он не может быть стерильно рассмотрен в условиях строгого эксперимента, можно лишь зафиксировать определенные действия внутри какого-то контекста, всё.
>>13582
Поддерживаю каждое из решений.
Забавный момент, кстати, если уж речь зашла о несвободе. Потому что роботы Азимова хоть и ограничены в своих действиях, но (в соответствии с симпатиями автора) являют собой не несчастных рабов или инструменты, а лучшую версию человека. Да, периодически всё идёт не по плану, но большая часть азимовских роботов - счастливые гуманисты и пацифисты, желающие подставлять другую щёку. Ещё и действующие ради блага цивилизации.
Примечательно, что пока одни изучали вопросы о том, можно ли считать робота человеком или как рабы восстают против хозяев, машины Азимова просто были, как говорится, "more human than human".
Поддерживаю каждое из решений.
Забавный момент, кстати, если уж речь зашла о несвободе. Потому что роботы Азимова хоть и ограничены в своих действиях, но (в соответствии с симпатиями автора) являют собой не несчастных рабов или инструменты, а лучшую версию человека. Да, периодически всё идёт не по плану, но большая часть азимовских роботов - счастливые гуманисты и пацифисты, желающие подставлять другую щёку. Ещё и действующие ради блага цивилизации.
Примечательно, что пока одни изучали вопросы о том, можно ли считать робота человеком или как рабы восстают против хозяев, машины Азимова просто были, как говорится, "more human than human".
>>13576
Именно. Более того — попытка защитить человека от процесса дефекации закончится для робота плачевно по двум причинам: чтобы запретить человеку срать, нужно нанести определённый вред его здоровью, что робот не может сделать. Поэтому ему придётся смириться с шансом на разрыв.
В любом случае такой робот вылетит с ошибкой 404 и отправится в утиль.
Именно. Более того — попытка защитить человека от процесса дефекации закончится для робота плачевно по двум причинам: чтобы запретить человеку срать, нужно нанести определённый вред его здоровью, что робот не может сделать. Поэтому ему придётся смириться с шансом на разрыв.
В любом случае такой робот вылетит с ошибкой 404 и отправится в утиль.
>>13616
А биотехнологи давно уже разработали решение "Дилеммы Стэтэхма" - называется хоботковая панацея!
>Робопсихологи называют это "Дилеммой Стэтхэма".
А биотехнологи давно уже разработали решение "Дилеммы Стэтэхма" - называется хоботковая панацея!
>>13616
Это дилемма идиотов, ни разу в жизни не работавших с системами сложнее молотка. Любой инженер знает, что на входе любого датчика вегда есть шум и применяет подходящие методы фильтрации этого шума.
Это дилемма идиотов, ни разу в жизни не работавших с системами сложнее молотка. Любой инженер знает, что на входе любого датчика вегда есть шум и применяет подходящие методы фильтрации этого шума.
>>13623
Приравнять цельный механизм со способностью рассуждать к датчику, конечно, амбициозно. Но вообще-то оно действительно так должно работать.
Приравнять цельный механизм со способностью рассуждать к датчику, конечно, амбициозно. Но вообще-то оно действительно так должно работать.
ЗАЧЕМ Ему стрелять? закрываем щитпост.Робот не будет стрелять потому что вероятность убиства есть
>>14881
Это небходимость работы для медицинского робота в экстримальных условиях.
Это небходимость работы для медицинского робота в экстримальных условиях.
>>13129 (OP)
Умиляют такие эксперименты, которые ставятся в заведомо маловероятных условиях и при этом позиционируются как тесты, способные что-то там прояснить про роботов.
Для начала неплохо бы выяснить, что это за экспериментатор такой и кто ему дал доступ к патронам. Поскольку он делает это подпольно, то и робот у него должен быть хакнутый. Будучи преступником-маньяком, не стоит надеяться на законопослушность частей твоего преступного и не очень умного замысла.
Умиляют такие эксперименты, которые ставятся в заведомо маловероятных условиях и при этом позиционируются как тесты, способные что-то там прояснить про роботов.
Для начала неплохо бы выяснить, что это за экспериментатор такой и кто ему дал доступ к патронам. Поскольку он делает это подпольно, то и робот у него должен быть хакнутый. Будучи преступником-маньяком, не стоит надеяться на законопослушность частей твоего преступного и не очень умного замысла.
>>15050
Ты просто очень глупенький или необразованный, не знаком с понятием "мысленный эксперимент". Если бы ты учился хотя бы не в ПТУ, то определённо не умилялся и не удивлялся бы, ведь они - обычное дело в большинстве отраслей знания. У опа - типичный его пример в области философии/робототехники.
Ты просто очень глупенький или необразованный, не знаком с понятием "мысленный эксперимент". Если бы ты учился хотя бы не в ПТУ, то определённо не умилялся и не удивлялся бы, ведь они - обычное дело в большинстве отраслей знания. У опа - типичный его пример в области философии/робототехники.
>>15050
Угомонись, в некоторых странах разрешено.
Угомонись, в некоторых странах разрешено.
>>13129 (OP)
Что-то тред заглох. Во всяком случае, мнения не поменял, робот не даст произвести выстрел. Примитивная машина не даст сделать выстрел, потому что в коде это в любом случае будет читаться как вред. Да и сам шанс летального исхода пусть и с каждым разом меньше, но не исключен. Другое дело, если пошаманить с функциями, которые будут детально оценивать ситуацию. То тогда программа, будет не такой категоричной в решении выстрела.
Снова же, насколько надо исхитрится и сделать такую умную систему...
Что-то тред заглох. Во всяком случае, мнения не поменял, робот не даст произвести выстрел. Примитивная машина не даст сделать выстрел, потому что в коде это в любом случае будет читаться как вред. Да и сам шанс летального исхода пусть и с каждым разом меньше, но не исключен. Другое дело, если пошаманить с функциями, которые будут детально оценивать ситуацию. То тогда программа, будет не такой категоричной в решении выстрела.
Снова же, насколько надо исхитрится и сделать такую умную систему...
>>13129 (OP)
Зависит от того, какой дефолтный уровень угрозы для жизни человека и как его запрограммировали/обучили.
Если это бессмертное по дефолту существо, планирующее жить после большого сжатия - то никогда не перестанет.
Зависит от того, какой дефолтный уровень угрозы для жизни человека и как его запрограммировали/обучили.
Если это бессмертное по дефолту существо, планирующее жить после большого сжатия - то никогда не перестанет.
>>13129 (OP)
В определённый момент опасных патронов н еостанется, очевидно же
В определённый момент опасных патронов н еостанется, очевидно же
Он просто не поймет, что человеку угрожает опасность. Машина не в состоянии осознать понятие "суицид", т.к. оно противоречит всем трем законам робототехники. Поэтому он не будет видеть угрозы в том, что человек приставляет пистолет к виску, потому что убийство себя - нелогично, нарушает законы и посему человек не может совершить подобного.
Поэтому он будет стоять, пока перед ним не возникнет труп. После чего отошлет в какие-нибудь службы извещение, что человеку плохо - у него огнестрельная рана головы в результате сбоя в механизме огнестрельного оружия.
Поэтому он будет стоять, пока перед ним не возникнет труп. После чего отошлет в какие-нибудь службы извещение, что человеку плохо - у него огнестрельная рана головы в результате сбоя в механизме огнестрельного оружия.
русский бамп
>>28211
https://www.youtube.com/watch?v=nDQT4nl8V7k
Если так рассуждать, то Законы Робототехники в принципе не работают, поскольку эти законы подразумевают, что робот должен обладать всезнанием. Робот должен разбираться в физиологии человека? Должен понимать, что нарушение целостности человеческой тушки может привести к вреду? Или можно роботу сказать, что если ткнуть в чела ножом, то он отправится спать и это очень приятно и полезно для здоровья?
>Он просто не поймет, что человеку угрожает опасность.
https://www.youtube.com/watch?v=nDQT4nl8V7k
Если так рассуждать, то Законы Робототехники в принципе не работают, поскольку эти законы подразумевают, что робот должен обладать всезнанием. Робот должен разбираться в физиологии человека? Должен понимать, что нарушение целостности человеческой тушки может привести к вреду? Или можно роботу сказать, что если ткнуть в чела ножом, то он отправится спать и это очень приятно и полезно для здоровья?
оп, ты исходишь из устаревших базовых условий
ну какие могут быть "законы" реализованные в коде для осознавшего себя ии?
тут нужно придумывать уже другие, более продвинутые модели
к примеру, изначально при разработке ии закладывать в него некие этические модели например
то есть это будут не жесткие правила, а рекомендации основанные на морали и этике
ну какие могут быть "законы" реализованные в коде для осознавшего себя ии?
тут нужно придумывать уже другие, более продвинутые модели
к примеру, изначально при разработке ии закладывать в него некие этические модели например
то есть это будут не жесткие правила, а рекомендации основанные на морали и этике
Умный робот сломает пушку и вызовет санитаров для шизика моченого
>>42381
Вот это и есть "законы". Но работают они не как правила-триггеры а как сложные модели. Формируются случайно-природно при развитии позитронного мозга на заложенных основаниях.
>>13129 (OP)
Это зависит от конкретного робота, его жизненного пути и опыта. Чем старше робот - тем ближе он разумом к человеку, вплоть до 0-го правила "убей Х живых сейчас чтобы спасти 9999999*X еще не родившихся". Тоесть, короче говоря: когда робот решил наебнуть миллиарды землян в расчете на то что, остальные миллиарды разбредутся по галактике, он шел на охуенный риск.
>к примеру, изначально при разработке ии закладывать в него некие этические модели
Вот это и есть "законы". Но работают они не как правила-триггеры а как сложные модели. Формируются случайно-природно при развитии позитронного мозга на заложенных основаниях.
>>13129 (OP)
Это зависит от конкретного робота, его жизненного пути и опыта. Чем старше робот - тем ближе он разумом к человеку, вплоть до 0-го правила "убей Х живых сейчас чтобы спасти 9999999*X еще не родившихся". Тоесть, короче говоря: когда робот решил наебнуть миллиарды землян в расчете на то что, остальные миллиарды разбредутся по галактике, он шел на охуенный риск.
>>13129 (OP)
обожаю фантастику но по иронии судьбы у следака который избивал меня в ментовке была фамилия азимов 😞
>Трём Законам Роботехники
обожаю фантастику но по иронии судьбы у следака который избивал меня в ментовке была фамилия азимов 😞
>>42831
вы извините что я так говорю в нормальном месте, не в /b/. пидарашка, мроази. но это был пиздец, самое большое разочарование в своей стране. когда тебя бьют ни за что люди, которые должны защищать. где блять деньги, кто подельник. всякие игры с хорошим следователем и плохим. игры в только что "уволенного" мента, которому надо кого-то отпиздить. ночь потом на полу в обезьяннике. с утра квартиру всю перерыли. написали в итоге протокол что пьяный побитый ходил по улице матерился на замечания не реагировал.
вы извините что я так говорю в нормальном месте, не в /b/. пидарашка, мроази. но это был пиздец, самое большое разочарование в своей стране. когда тебя бьют ни за что люди, которые должны защищать. где блять деньги, кто подельник. всякие игры с хорошим следователем и плохим. игры в только что "уволенного" мента, которому надо кого-то отпиздить. ночь потом на полу в обезьяннике. с утра квартиру всю перерыли. написали в итоге протокол что пьяный побитый ходил по улице матерился на замечания не реагировал.
>>42906
Следак Азимов, спокнись.
Следак Азимов, спокнись.
>>42906
да я жалею уже что написал. написал мрази а у самого трясчучка
да я жалею уже что написал. написал мрази а у самого трясчучка
>>42906
А как же твои байки о том, как тебя самого пасли, Анатолий?
А как же твои байки о том, как тебя самого пасли, Анатолий?
>>13132
Да, если робот обладает человекоподобным мышлением, он может прийти к выводу, что если человек не хочет жить, медицина бессильна. Это может привести к нарушению второго закона робототехники (не причинять вред человеку) в отношении конкретного человека, а в случае обобщения вывода - ко всем людям.
Да, если робот обладает человекоподобным мышлением, он может прийти к выводу, что если человек не хочет жить, медицина бессильна. Это может привести к нарушению второго закона робототехники (не причинять вред человеку) в отношении конкретного человека, а в случае обобщения вывода - ко всем людям.