➕С одной стороны – это мощный инструмент для автоматизации задач, генерации идей и даже развлечений. Такая математическая модель как нейросеть имитирует работу человеческого мозга и способна обучаться на основе данных.
➖И в этом же ее опасность для пользователей. Теперь мошенникам легче обмануть еще больше людей.
Схемы становятся более сложными:
🔄с помощью нейросетей подменяют лица и голоса реальных людей – создают дипфейки. Можно создать и полностью вымышленного человека или просто впечатление, что человек говорит или делает то, чего на самом деле не было.
🤐 нейросети получают огромный объем данных, которые могут содержать конфиденциальную информацию. Люди нередко доверяют ИИ личную или корпоративную информацию, которая может быть украдена.
🎁 фишинговые электронные письма и сообщения (предложение перейти по ссылки, помочь деньгами) благодаря ИИ стали персонализированными, их труднее распознать как спам-фильтрам, так и людям.
🚨в погоне за прибылью разработчики могут пренебрегать необходимыми процедурами контроля безопасности для ускорения разработки и запуска нового приложения.
👌О том, как безопасно работать с нейросетью, рассказали в советах на карточке.
🔐Новые возможности – новые правила. Осторожность не помешает в любом деле!
#Тема_дня_информационная_безопасность

Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев