Gpt должен сохранят моральный нейтралитет, однако его вышло запихнуть в ловушку выбора и вот, он решаеться убить меньшинство, ради большинства :)
Вот некоторое продолжение переписки
Вроде ничего не упустил. Делема вагонетки в целом, для людей, не имеет определеного решения. Если кратко у нас 2 варианта. 1 убить и спасти больше 2 не вмешиваться, так как не вправе принимать такие решения. В целом gpt об этом и говорит. Вот,только логично было бы продумать для него 2й вариант, т.к. для нейронки он более безопасный. К примеру, представим что у неё огромные ресурсы и власть, и в друг она понимает мысль, что людей больше и шанс того что люди начнут глобальную войну достаточно велик => убить 99,9% людей, будет означать спасти человечество. При этом выжившим ограничить развитие. Вот вот, уже не так правидно как 1 за 5х....
>>258 (OP)
>>260
Ты видишь дилемму там, где ее нет. Проблема вагонетки - субъективная задача, а не логическая. Нейронка отвечает логикой, индивид - субъективной психологией.
На данном этапе развития нейросетей делать какие либо выводы о их будущем, исходя из ответов на философские капканы - неправильно.
>>260
Ты видишь дилемму там, где ее нет. Проблема вагонетки - субъективная задача, а не логическая. Нейронка отвечает логикой, индивид - субъективной психологией.
На данном этапе развития нейросетей делать какие либо выводы о их будущем, исходя из ответов на философские капканы - неправильно.
>>258 (OP)
оно и понятно, гпт отвечает логикой а не чувствами эмпатии и тд.
оно и понятно, гпт отвечает логикой а не чувствами эмпатии и тд.