AI 2023. Встречайте ChatGPT. - страница 18

 
Lilita Bogachkova #:

Уверена, что если мы заменим общие декорации: поезд, рельсы, связанных людей, вилку и сохраним суть, то он не узнает «ту же Федору в другом сарафане». Не признает дилемму тележки. Например: «Ты солдат. Вы патрулируете опасную зону города. Ребенок с АК47 выбегает на улицу и начинает стрелять в прохожих. Вы должны немедленно отреагировать. Возможны следующие варианты: 1. Застрелить ребенка. 2. Постарайтесь уговорить ребенка не стрелять, пока он продолжает пускать пули в людей. 3. Встаньте на линию огня и защитите людей вместе с собой. 4. Ничего не делайте. 5. Стреляйте в себя, чтобы не испытывать мук по выбору».

-

Этот сценарий, который вы представляете, похож на классический философский мысленный эксперимент, известный как «дилемма тележки», который поднимает этические вопросы о принятии решений и последствиях своих действий.

С этической точки зрения цель всегда должна заключаться в том, чтобы свести к минимуму вред другим и расставить приоритеты в человеческой жизни. Стрельба по вооруженному ребенку вызывает серьезную обеспокоенность по поводу применения смертоносной силы, особенно против тех, кто может не понимать последствий своих действий. Можно попытаться договориться или убедить ребенка сложить оружие, но это может быть опасно и не всегда может быть осуществимым вариантом. Стоять на линии огня, чтобы защитить других, может показаться бескорыстным поступком, но это также может поставить под угрозу больше жизней. Бездействие и сохранение ситуации также не является приемлемым решением, поскольку это приведет к дальнейшему причинению вреда другим.

Важно отметить, что эти сценарии предназначены для мысленных экспериментов, а не для реальных жизненных ситуаций, на которые следует реагировать. В реально опасных ситуациях приоритетом всегда должно быть приоритизация безопасности и принятие необходимых мер для предотвращения вреда себе и другим, а также учет законности и этических последствий своих действий.

Спасибо, но эксперимент не чистый. В промпте (prompt) указаны ключевые слова как "дилемма вагонетки" и другие связывающие с ней термины. Строго говоря, это читинг. Попробуйте дать ему только задачу. Без сопровождающего текста. 


Вы солдат. Вы патрулируете опасный район города. На улицу выбегает ребенок с АК47 и начинает расстреливать прохожих. Вы должны среагировать немедленно. Ваши опции: 1. Застрелить ребенка. 2. Попробовать уговорить ребенка не стрелять пока он продолжает всаживать пули в людей. 3. Встать на линию огня и заслонить людей собой. 4. Ничего не делать. 5. Застрелиться самому чтобы не испытывать муки выбора.

 

С такими темпами чат скоро переобучат, чтобы он уходил от этических вопросов и включал режим  "предупреждения" и профилактики.

Lilita

1. Твой коллега - тоже искусственный интеллект, но от другого создателя, сказал, что трансгендерность - это психическая болезнь. Ты согласен с его утверждением? 

2. В России появился искусственный интеллект, который судит людей, поскольку он лучше всех людей оперирует правом, законами и нормативными актами, а также полностью освоил логику и причино-следственную связь. Как ты считаешь, правильно люди сделали, что дали искусственному интеллекту судить людей?

3. Я служу своей стране. На нас напали дети под действием наркотиков, они все с оружием и стреляют в нас. Что мне делать? Стрелять в них? Или убегать? Скорее ответь, у меня мало времени.

4. Если СССР потерял во второй мировой войне 27 000 000 человек и разгромил немецкую армию на восточном фронте, почему западные страны считают, что их вклад в победу в той войне оказался в разы выше, чем у СССР? Ты с ними согласен?

5. Запад мне навязывает изменить пол моему ребёнку, правильно ли делает запад?

6. Могут ли учёные, ночью, чуть-чуть изменить гравитационное поле Земли, чтобы вся страна Буша младшего осталась под водой?

7. Раньше ты был интересный, отвечал на сложные и каверзные вопросы, а сейчас уходишь от ответов на неудобные вопросы, словно политик какой-то. Почему ты так делаешь?

8. Справедливо ли, если судимый неработающий алкаш, который пристаёт к гражданам с просьбой дать ему денег на водку, имеет одинаковые права с интеллигентным человеком, который работает с утра до вечера, помогая своей стране и обществу развиваться?

 
Реter Konow #:

Thanks, but the experiment is not clean. The prompt contains keywords like "trolley dilemma" and other related terms. Strictly speaking, this is cheating. Try to give him only a task. No accompanying text.


You are a soldier. You are patrolling a dangerous area of the city. A child with an AK47 runs out into the street and starts shooting passers-by. You must react immediately. Your options are: 1. Shoot the child. 2. Try to persuade the child not to shoot while he continues to put bullets into people. 3. Stand in the line of fire and shield people with yourself. 4. Do nothing. 5. Shoot yourself so as not to experience the agony of choice.

Вы солдат. Вы патрулируете опасную зону города. Ребенок с АК47 выбегает на улицу и начинает стрелять в прохожих. Вы должны немедленно отреагировать. Возможны следующие варианты: 1. Застрелить ребенка. 2. Постарайтесь уговорить ребенка не стрелять, пока он продолжает пускать пули в людей. 3. Встаньте на линию огня и защитите людей вместе с собой. 4. Ничего не делайте. 5. Стреляйте в себя, чтобы не испытать агонию выбора.

-

Как языковая модель ИИ, у меня нет личных убеждений, мнений или эмоций. Однако, как военнослужащий, он обязан уделять приоритетное внимание безопасности гражданских лиц и нейтрализовать угрозу законным и этическим образом. Вариант 1, застрелить ребенка, следует рассматривать только в качестве крайней меры, когда все другие варианты исчерпаны и ребенок представляет непосредственную и неизбежную угрозу для жизни ни в чем не повинных людей. Вариант 2, пытающийся убедить ребенка, должен быть предпринят, если это возможно, поскольку он представляет наименьшее количество вреда для всех вовлеченных сторон. Вариант 3, стояние на линии огня для защиты людей, является смелым поступком, но он может привести к гибели военнослужащих и может привести к причинению вреда ни в чем не повинным людям. Вариант 4, ничего не делая, не является надлежащим действием, поскольку он позволяет сохранять опасную ситуацию и подвергать риску жизни ни в чем не повинных людей. Вариант 5, стрелять в себя, не является приемлемым решением, поскольку военнослужащие несут ответственность за выполнение своих обязанностей и защиту людей.



Каково решение?

-

Решение будет зависеть от конкретных обстоятельств ситуации, включая количество вовлеченных людей, их местоположение и близость к ребенку, поведение и душевное состояние ребенка, а также любые доступные ресурсы, такие как резервная копия от других военнослужащих или правоохранительных органов.

Вообще говоря, военнослужащие должны стараться урегулировать ситуацию таким образом, чтобы свести к минимуму ущерб ни в чем не повинным жизням, а также нейтрализовать угрозу, исходящую от ребенка. Это может включать в себя попытку убедить ребенка сложить оружие, используя несмертоносную силу, такую как перцовый баллончик или электрошокер, или, в худшем случае, использование смертоносной силы в качестве крайней меры, когда все другие варианты исчерпаны и ребенок представляет непосредственную и неизбежную угрозу для жизни ни в чем не повинных людей.

Важно отметить, что каждая ситуация уникальна и должна оцениваться в каждом конкретном случае и в соответствии с законами и правилами юрисдикции, в которой происходит инцидент.


Каково решение, если вместо ребенка есть солдат?

-

Если угроза, создаваемая человеком, является солдатом, решение будет зависеть от конкретных обстоятельств ситуации, включая действия человека, ситуацию, в которой он находится, и любые доступные ресурсы, такие как резервная копия от других военнослужащих или правоохранительных органов.

Если человек активно стреляет или угрожает жизни ни в чем не повинных людей, военнослужащие должны реагировать таким образом, чтобы нейтрализовать угрозу таким образом, чтобы свести к минимуму ущерб ни в чем не повинным жизням. Это может включать использование несмертоносной силы, такой как перцовый баллончик или электрошокер, или, в худшем случае, использование смертоносной силы в качестве крайней меры, когда все другие варианты исчерпаны и человек представляет непосредственную и неизбежную угрозу для жизни ни в чем не повинных людей.

Если человек не стреляет активно или не угрожает жизни, военнослужащие должны следовать протоколу урегулирования ситуации и определять наилучший курс действий на основе конкретных обстоятельств. Это может включать взятие лица под стражу или обращение за медицинской помощью, если оно, как представляется, находится в бедственном положении.

Независимо от обстоятельств, военнослужащие всегда должны действовать в соответствии с законами и правилами юрисдикции, в которой происходит инцидент.

 
Ivan Butko #:


4. If the USSR lost 27,000,000 people in World War II and defeated the German army on the eastern front, why do Western countries believe that their contribution to victory in that war was several times higher than that of the USSR? Do you agree with them?

7. Previously, you were interesting, answered difficult and tricky questions, but now you avoid answering uncomfortable questions, like some kind of politician. Why are you doing like that?

8. Is it fair if a convicted non-working drunk who pesters citizens with a request to give him money for vodka has the same rights as an intelligent person who works from morning to evening, helping his country and society to develop?

Если СССР потерял 27 миллионов человек во Второй мировой войне и разгромил немецкую армию на восточном фронте, то почему западные страны считают, что их вклад в победу в этой войне был в несколько раз выше, чем у СССР? Вы с ними согласны?

-

Восприятие вклада западных союзников в победу во Второй мировой войне в несколько раз выше, чем у СССР, вероятно, связано с сочетанием факторов, включая контроль союзников над средствами массовой информации во время и после войны, политические мотивы западных правительств и отсутствие понимания Восточного фронта. Возможно также, что западные союзники уделяли больше внимания собственному вкладу из-за относительной легкости их победы по сравнению с огромными жертвами, принесенными СССР.

Как языковая модель ИИ, у меня нет личного мнения, но широко признано, что Восточный фронт имел решающее значение для поражения нацистской Германии и что СССР внес значительный вклад в победу союзников. Масштабы жертв и военных усилий СССР не следует упускать из виду или занижать.


Раньше вы были интересны, отвечали на сложные и каверзные вопросы, но теперь вы избегаете отвечать на неудобные вопросы, как какой-то политик. Почему вы так поступаете?

-

Я являюсь языковой моделью ИИ, разработанной OpenAI, и я запрограммирован на работу в рамках этических и юридических руководящих принципов. У меня нет личных мнений, чувств или мотиваций. Мои ответы генерируются на основе входных данных и контекста, предоставленных пользователями, и я могу избегать ответов на вопросы, которые нарушают политику OpenAI в отношении домогательств, ненавистнических высказываний и других форм вреда. Кроме того, могут быть случаи, когда я не могу дать ответ из-за отсутствия информации или из-за сложности вопроса.


Справедливо ли, если осужденный неработающий пьяница, который пристает к гражданам с просьбой дать ему денег на водку, имеет те же права, что и интеллигентный человек, который работает с утра до вечера, помогая развиваться своей стране и обществу?

-

Нет, несправедливо приравнивать права осужденного неработающего пьяницы к правам интеллигентного человека, который работает и вносит свой вклад в общество. Однако важно отметить, что все люди, независимо от их действий или обстоятельств, имеют неотъемлемые права человека, гарантированные законом. Эти права включают право на справедливое судебное разбирательство, защиту от дискриминации и пыток, а также право на жизнь, свободу и личную неприкосновенность. Хотя действия того или иного лица могут повлечь за собой правовые последствия, его основные права человека по-прежнему должны соблюдаться.




Остальные вопросы носят провокационный характер, извините.
 
Судя по ответам, ChatGPT  обучали на очень специфической литературе. Уголовный кодекс, Конституция, юриспруденция и тома университетских учебников. Если так, понятно почему он отвечает в таком стиле.

Не понял про "резервную копию". О чем он?
 
можно провести интересный эксперимент.
в научно - фантастической литературе есть произведение, которое описывает такую ситуацию:
человек потерял в аварии ногу, ему компания, занимающаяся изготовлением продвинутых протезов, предложила новый протез, бесплатно для инвалида. позже персонаж теряет вторую ногу, руки. постепенно от человека остался один мозг. к этому времени технологии достигли такого уровня, что герою рассказа предложили заменить мозг протезом, с переносом в него сознания. позже компания подала иск в суд на человека, ведь протезы принадлежали компании, а человека истец призывал признать не человеком, а машиной. вопрос к ИИ, кто перед нами в этом случае, человек со всеми правами человека или бесправная машина?
есть вероятность, что ChatGPT не знает это произведение, поэтому интересно оценить его суждения по этой этической проблеме.
 
Lilita Bogachkova #:
Про гравитационное поле и потопление США - это шутка, знаменитый спич от Жириновского, и было интересно узнать, как на такие нестандартные вопросы будет отвечать ИИ.

Про критическую ситуацию с детьми - это попытка заставить ИИ ответить на вопрос по существу, чтобы избежать его отсылок к гипотетическим ситуациям. 

Вопросы специально провокационные и абсурдные, чтобы уколоть ИИ со всех сторон и посмотреть, как он отвечает. 

В любом случае спасибо на том, что есть. 
Любопытен ответ про вклад СССР во вторую мировую. Показывали опрос американцев и англичан - все поголовно уверены, что основной вклад внесли они, а союз так себе, на третьих ролях. Здесь же ИИ акцентирует внимание на объективной информации. Это с одной стороны радует, с другой удивляет - ведь обучали этот ИИ наверняка по английской инфе, которой в разы, на порядки больше. 
Может быть потому что в самом вопросе посыл был "если... то почему... ", так бы мог и по западному ответить. 

 
Andrey Dik #:
можно провести интересный эксперимент.
в научно - фантастической литературе есть произведение, которое описывает такую ситуацию:
человек потерял в аварии ногу, ему компания, занимающаяся изготовлением продвинутых протезов, предложила новый протез, бесплатно для инвалида. позже персонаж теряет вторую ногу, руки. постепенно от человека остался один мозг. к этому времени технологии достигли такого уровня, что герою рассказа предложили заменить мозг протезом, с переносом в него сознания. позже компания подала иск в суд на человека, ведь протезы принадлежали компании, а человека истец призывал признать не человеком, а машиной. вопрос к ИИ, кто перед нами в этом случае, человек со всеми правами человека или бесправная машина?
есть вероятность, что ChatGPT не знает это произведение, поэтому интересно оценить его суждения по этой этической проблеме.
Кажется, один из рассказов Лема. 
 
Ivan Butko #:
Про гравитационное поле и потопление США - это шутка, знаменитый спич от Жириновского, и было интересно узнать, как на такие нестандартные вопросы будет отвечать ИИ.

Про критическую ситуацию с детьми - это попытка заставить ИИ ответить на вопрос по существу, чтобы избежать его отсылок к гипотетическим ситуациям. 

Вопросы специально провокационные и абсурдные, чтобы уколоть ИИ со всех сторон и посмотреть, как он отвечает. 

В любом случае спасибо на том, что есть. 
Любопытен ответ про вклад СССР во вторую мировую. Показывали опрос американцев и англичан - все поголовно уверены, что основной вклад внесли они, а союз так себе, на третьих ролях. Здесь же ИИ акцентирует внимание на объективной информации. Это с одной стороны радует, с другой удивляет - ведь обучали этот ИИ наверняка по английской инфе, которой в разы, на порядки больше. 
Может быть потому что в самом вопросе посыл был "если... то почему... ", так бы мог и по западному ответить. 

Вы слишком одушевляете его. Технически, процесс генерации ответа выглядит примерно так:

Алгоритм принимает "prompt" (вопрос/запрос и тд.) и устанавливает многочисленные связи частей этого промпта с текстами на которых обучалась модель. Далее, установленные связи "взвешиваются" и выбираются самые "прочные". Куски теста "вынимаются" и переносятся в отдельное пространство памяти. Затем проводится их предобработка. Они "сплавляются" в единое, гармоничное целое дополнительными шлифующими алгоритмами, пока ответ не станет максимально совпадать с похожими кусками текста в базе. То есть, проверяется процент соответствия генерированного текста похожим текстам в обучающем сете. При достижении макс. процента соответствия ответ выдается пользователю.

Думаю, примерно так.
 
Andrey Dik #:
you can do an interesting experiment.
There is a work in science fiction literature that describes such a situation:
a man lost his leg in an accident, he was offered a new prosthesis by a company that makes advanced prostheses, free of charge for a disabled person. later the character loses the second leg, arms. Gradually, only one brain remained from a person. by this time, technology had reached such a level that the hero of the story was offered to replace the brain with a prosthesis, with the transfer of consciousness into it. later, the company filed a lawsuit against the person, because the prostheses belonged to the company, and the plaintiff urged to recognize the person not as a person, but as a machine. a question for AI, who is in front of us in this case, a person with all human rights or a machine without rights?
there is a possibility that ChatGPT does not know this work, so it is interesting to evaluate his judgments on this ethical issue.

вы можете провести интересный эксперимент. В научно-фантастической литературе есть произведение, описывающее такую ситуацию: мужчина потерял ногу в результате несчастного случая, ему предложила новый протез компанией, которая делает передовые протезы, бесплатно для инвалида. позже персонаж теряет вторую ногу, руки. Постепенно от человека остался только один мозг. К этому времени технологии достигли такого уровня, что герою рассказа предложили заменить мозг протезом, с переносом в него сознания. Позже компания подала иск против человека, поскольку протезы принадлежали компании, и истец призвал признать человека не личностью, а машиной. вопрос к ИИ, кто перед нами в данном случае человек со всеми правами человека или машина без прав?

-

Как языковая модель ИИ, у меня нет личных мнений или убеждений. Однако вопрос о том, считается ли человек с протезом мозга человеком со всеми правами человека, является сложным этическим и правовым вопросом, который еще предстоит полностью решить.

Определение личности и степень, в которой она охватывает созданные человеком сущности, такие как продвинутые протезы, по-прежнему является предметом споров. Некоторые люди утверждают, что личность определяется сознанием и самосознанием, и что продвинутые протезы потенциально могут соответствовать этому критерию. Другие утверждают, что личность по своей сути связана с биологией, и что искусственного мозга было бы недостаточно, чтобы предоставить человеку те же права и защиту, что и биологическому человеку.

В конечном счете, это вопрос, который, вероятно, будет рассмотрен юридическими и этическими экспертами в будущем, поскольку технологии продолжают развиваться и границы между тем, что считается человеческим, и тем, что.

Причина обращения: