Сейчас мир переживает настоящий бум нейросетей. Во все заголовки попадает всё больше новостей о чат-ботах и сгенерированном контенте, а также последних разработках IT-компаний,
Буквально каждый скорее всего уже пробовал нейросети в действии — общался с текстовыми моделями, такими как Yandex GPT или же делал картинку в Midjourney. Но задавались ли Вы вопросом — а как именно работают эти нейросети?
🔍 Так, например, всеми известная Chat GPT и его русский аналог Yandex GPT работают по принципу Глубоких нейронных сетей (DNN).
Глубокие нейронные сети состоят из нескольких слоёв нейронов, каждый из которых выполняет определённую функцию обработки входных данных. Входные данные последовательно проходят через все слои сети, при этом каждый слой преобразует входные данные в более абстрактное представление. Выходной слой выдаёт результат работы сети в виде классификации или предсказания.
Обучение глубоких нейронных сетей происходит с использованием алгоритма обратного распространения ошибки, который позволяет корректировать веса связей между нейронами таким образом, чтобы минимизировать ошибку между предсказанным и истинным значениями.
Но всё это — лишь принципы работы и обучения нейросети. И на данном этапе развития технологий мы не знаем главного — а как именно они работают?
И под местоимением “мы” скрываются не обычные пользователи, а сами создатели нейросетей и известные учёные.
👉 Всё это — проблема “черного ящика”
При работе с нейросетью пользователь видит и может взаимодействовать только с двумя стадиями: собственный запрос (текстовые подсказки, которые пользователь вводит при работе с нейросетью — промты) и конечный ответ от нейросети.
Хотя основы работы нейросетей были исследованы ещё в прошлом столетии, когда количество нейронов достигает десятков тысяч, мы сталкиваемся с неизведанной территорией. Сеть демонстрирует ранее неизвестные свойства, которые трудно объяснить. Мы не можем точно предсказать результат, выданный ИИ: он может оказаться верным (и, скорее всего, так и будет), но существует вероятность ошибки из-за путаницы в нейросети. Например, если нейросеть обучалась на фотографиях, а пользователь предоставил ей рисунок, система может неверно интерпретировать изображение.
Современное развитие глубокого обучения отчасти похоже на алхимию. Исследователи пробуют различные подходы, комбинируя разные методы и наблюдая за результатами. Они используют метод проб и ошибок, чтобы определить, какие архитектуры нейросетей наиболее эффективны для решения конкретных задач. Хотя после проведения экспериментов мы можем легко объяснить полученный выбор, предсказать его заранее пока не удаётся.
❓ Почему так происходит?
💡 Во-первых, нейросети обучаются на огромном массиве данных и при запросе от пользователя обрабатывают сразу все имеющиеся в наличии данные. Таким образом, после переработки информации нейросетью и выдаче результата даже ответственный за обучение нейросети сотрудник не сможет сказать, на основании каких данных был дан ответ.
💡 Во-вторых, нейросети динамически изменяют правила вывода ответа благодаря своему самообучению. Например, найдя ошибку в ответе, она корректируют свой алгоритм для следующих запросов. Но, опять же, мы не можем понять, каким алгоритм стал из-за этого. И более сложный вопрос — а кто вообще счел ответ нейросети ошибочным?
По опыту ChatGPT, мы уже понимаем, что нейросеть также учиться на запросах пользователей и общении с ним, из-за чего компании-разработчику чат-бота пришлось корректировать данные нейросети и даже накладывать цензуру на некоторые ответы.
💡 Третий пункт — способности нейросетей к обобщению. Обобщение означает способность нейросети применять знания, полученные на одном наборе данных, к новым, ранее не встречавшимся данным. И, конечно, подобное неприемлемо в таких точных и сложных областях, как медицина, ведь каждый случай болезни пациента может быть максимально индивидуальным.
Об этом факте не забывают в системе здравоохранения РФ, где нейросети для поиска заболеваний и анализа истории болезни не могут сами поставить диагноз, а используются только в качестве помощи врачам. Компьютерное зрение — одна из самых востребованных технологий на основе искусственного интеллекта в здравоохранении. Оно помогает врачам ставить диагнозы, анализируя снимки. Компьютерное зрение позволяет оценить состояние органов и тканей при различных заболеваниях, а также оперативно обнаружить патологии на КТ-снимках лёгких, что было особенно полезно для медиков во время пандемии COVID-19.
Также нейросети активно применяются при разработке новых лекарственных препаратов. Благодаря искусственному интеллекту можно оптимизировать этот дорогостоящий и длительный процесс путём подбора молекулярных соединений. Российская платформа Syntelly, работающая на базе искусственного интеллекта, способна анализировать токсикологические и физико-химические свойства соединений. В базе сервиса содержится информация о 96 миллионах молекул, что позволяет исследовать и сравнивать их, получая данные об их свойствах.
❓ Но что происходит, если ответственность за принятие решения возлагается только на нейросеть?
Так, например, в США разгорелся скандал вокруг систем автоматического одобрения онлайн-заявок на ипотеку. Эти системы уже несколько лет помогают крупнейшим ипотечным кредиторам страны, значительно упрощая их работу и способствуя увеличению прибыли. Однако выяснилось, что в погоне за эффективностью системы стали автоматически отклонять 80% заявок от людей с определёнными именами и фамилиями. Анализируя обширные базы данных, системы пришли к выводу, что люди с такими именами чаще всего проживают в более дешёвом жилье, а значит, их заявки проще отклонить.
С усложнением систем искусственного интеллекта (ИИ) становится всё труднее их понять. Исследователи ИИ призывают разработчиков обращать больше внимания на то, почему система выдаёт те или иные результаты, и встраивать в системы механизмы, которые помогут объяснить причины принятия решений внутри «чёрного ящика».
💬 В своей работе «Необъяснимость и непостижимость искусственного интеллекта» профессор компьютерных наук Университета Луисвилля Роман Ямпольский пишет:
“Если все, что у нас есть, — это «черный ящик», то невозможно понять причины сбоев и повысить безопасность системы. Кроме того, если мы привыкнем принимать ответы ИИ без объяснения причин, мы не сможем определять, если он начнет давать неправильные или манипулятивные ответы. Это чрезвычайно опасная дорога, на которую мы ступаем”
Модели «чёрного ящика» обладают большой мощностью и способны быстро предоставлять нужные разработчикам результаты. Благодаря этому они применяются в разработке беспилотных автомобилей, чат-ботов и даже в диагностике заболеваний. Некоторые задачи такие модели выполняют лучше людей. Однако, как мы уже поняли, проблема заключается в том, что невозможно понять, где может произойти ошибка, и даже определить, когда она станет систематической.
❓ Есть ли решение такой проблемы?
Сейчас разработчики пытаются создать модели “белого ящика”. В ней предлагается разбивать систему на модули, которые сможет интерпретировать человек. Или же изначально создавать модели хотя бы с локальной прозрачностью, чтобы у человека был контроль над ситуацией. Такой подход обеспечивает более глубокое понимание работы нейронной сети и позволяет вносить целенаправленные изменения для улучшения ее функционирования.
Узнать подробнее о нейросетях, а также начать изучат
программирование можно в Московской Школе Программистов
💻
Оставляйте заявку, с вами свяжутся специалисты отдела Заботы, подробно расскажут о программе обучения, расписании занятий и ответят на все интересующие вопросы 👀
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев