ChatGPT-4 прошёл тест Тьюринга, обманув испытуемых в 54% случаев
Ученые из Калифорнийского университета в Сан-Диего пригласили 500 случайных людей пообщаться с четырьмя собеседниками — среди них были GPT-4, GPT-3.5, ELIZA (прабабушка GPT) и один настоящий человек.
ИИ было приказано вести себя как человек, относиться к тесту с осторожностью и делать опечатки. Результат: — В 54% случаев люди увидели в GPT-4 родственную душу; — 33% людей ошибочно приняли реальных людей за ИИ; — GPT-3.5 был идентифицирован как человек в 50% случаев; — Даже ELIZA получила скромный рейтинг «человечности» в 22%.
Исследование ещё ожидает рецензирования, и его результаты следует воспринимать с осторожностью. Однако, среди выводов учёных, тот факт, что все будущие версии ChatGPT будут неотличимы от людей.
Так что заменить человека на робота становится вполне реальным!
Мы используем cookie-файлы, чтобы улучшить сервисы для вас. Если ваш возраст менее 13 лет, настроить cookie-файлы должен ваш законный представитель. Больше информации
Нет комментариев