Исследователи из Кембриджского университета выяснили, что чат-бот ChatGPT импровизировал при решении задачи об удвоении квадрата, совершая ошибки, как обычный студент. Об этом сообщает International Journal of Mathematical Education in Science and Technology.
Эксперимент проводили профессоры математики Надав Марко и Андреас Стилианидес. Они предложили ChatGPT решить знаменитую математическую головоломку Платона, датированную примерно 385 годом до н. э. Задача требует удвоить площадь квадрата. Чат-бот не использовал готовое решение, а действовал по собственному плану. Сначала он выбрал алгебраический метод вместо геометрического, и лишь после просьбы исследователей согласился перейти к классической геометрии.
«Если бы он просто помнил по памяти, он почти наверняка сразу же сослался бы на классическое решение — построить новый квадрат по диагонали исходного квадрата. Но вместо этого он, похоже, выбрал свой собственный подход», — уточнил Стилианидес.
Поведение ИИ исследователи сравнили с реакцией человека: при столкновении с новой проблемой он генерировал решения, исходя из опыта, допускал ошибки и корректировал подход.
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Комментарии 2
Новое украинское правительство, новое украинское руководство — все, кого я знаю, так или иначе испытали влияние фонда. Либо они сами получили стипендию, либо их жены
— заявил он
Как-будто кто-то удивлен.