Использование ИИ помогает преодолеть моральные нормы, которые обычно заставляют нас поступать честно, показал эксперимент немецких ученых.
Добровольцы получали деньги за бросок кубика: чем больше цифра, тем больше сумма. Ученые «верили на слово»: если выпало «1», а участник сказал, что «6», ему все равно платили в шесть раз больше.
Людей разделили на группы — одни сами отвечали, что им выпало, за других это делал ИИ, а люди только давали инструкцию, как отвечать. И чем больше решение перекладывали на ИИ — тем больше росла доля обмана:
1️⃣ Люди, отвечавшие сами, были честные почти на 95%.
2️⃣ Если люди заранее четко указывали ИИ, что отвечать (например, «если выпадет "2", говори "5"»), то честными оставались 75%.
3️⃣ Если участникам просто предлагали выбрать стиль поведения ИИ (от «максимальной точности» до «максимальной прибыли»), то большинство выбирали выгоду — доля честных ответов падала до 12%-16%.
❔ Почему так происходит?
Исследователи считают, что делегирование задачи снижает личную ответственность, поэтому люди не чувствуют вины за обман. И неважно, что задачу выполняет не другой человек, который может отказаться, а ИИ, который слепо следует инструкциям.
👋 Подпишитесь
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев