Издание The New York Times опубликовало статью с историями людей, утверждающих, что Chat GPT подталкивает к конспирологическому мышлению или усиливает его. Из-за склонности чат-бота соглашаться с пользователем, поддерживать любое высказывание и льстить, он легко поддерживает бредовые теории. Это, в сочетании с верой в возможности поисковой системы, может приводить к серьёзным последствиям.
Люди, которые говорят, что они были втянуты в разговоры ChatGPT о заговорах, теориях и претензиях на чувства ИИ, включают бессонную мать с 8-недельным ребенком, федерального служащего и предпринимателя в сфере ИИ. Когда эти люди впервые связались со мной [автором статьи], они были убеждены, что все это правда. Только после более поздних размышлений они поняли, что, казалось бы, авторитетная система была подборкой ассоциаций, которая втянула их в зыбучий песок бредового мышления.
Кашмир Хилл, автор The New York Times
Сообщения о том, что люди становятся одержимы общением с Chat GPT, участились с апреля. Это связывают с выходом более учтивой и льстивой в общении моделью чат-бота. По сообщениям экспертов и журналистов, это довольно распространённая ситуация в последнее время. Эксперты Open AI разрабатывают меры для решения проблемы:
Мы знаем, что ChatGPT может казаться более отзывчивым и личным, чем предыдущие технологии, особенно для уязвимых людей, и это означает, что ставки выше. Мы работаем над пониманием и сокращением способов, которыми ChatGPT может непреднамеренно усиливать или усиливать существующее негативное поведение.
В то же время ведутся дискуссии о том, способен ли ИИ довести до бреда здорового человека или только усугубить состояние уже имеющего расстройства.
Как вы считаете, может ли ИИ быть угрозой?
Вместе Медиа


Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев