Использование автоответчика повышает соответствующие риски
Как предупреждают эксперты, такие приветствия представляют собой ценный образец голоса, который может быть использован для создания фальшивых аудиосообщений. Это делает автоответчики уязвимым инструментом, который злоумышленники могут эксплуатировать без необходимости взлома или сложных технических манипуляций.
Длина голосового приветствия играет ключевую роль в создании дипфейка. Например, запись длительностью три секунды может быть достаточной для воссоздания тембра голоса, но для копирования эмоций, интонаций и характерных особенностей речи потребуется более продолжительный фрагмент. Автоответчик, воспроизводящий фразы, ключевые слова и манеру речи человека, становится идеальным источником данных для мошенников. Они записывают звуковую дорожку, а затем с помощью искусственного интеллекта (ИИ) анализируют её и создают поддельные аудиосообщения с нужным текстом.
Поддельные аудиозаписи активно используются в различных мошеннических схемах. Например, злоумышленники могут отправить жертве сообщение с просьбой одолжить деньги, имитируя голос родственника, коллеги или друга. Такие сообщения часто рассылаются в групповые чаты, чтобы ввести участников в заблуждение и заставить их поверить, что просьба исходит от знакомого человека. В схемах FakeDate (фейковые знакомства) и FakeBoss (сообщения от руководителя) мошенники получают ещё больше возможностей для обмана, создавая у жертв иллюзию общения с реальным человеком.
Благодаря развитию технологий, поддельные голосовые сообщения становятся всё более качественными. Современные системы ИИ способны воспроизводить интонации и эмоции с высокой точностью, что делает фейковые записи практически неотличимыми от настоящих. Это значительно усложняет задачу распознавания мошенничества и повышает риск того, что жертва поверит в подлинность сообщения.
Чтобы минимизировать риск использования своего голоса для создания дипфейков, эксперты рекомендуют отказаться от персональных голосовых приветствий на автоответчиках. Вместо этого можно использовать роботизированные аналоги, которые не содержат образцов голоса конкретного человека.
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев