Они не сняты с натуры, а синтезированы с помощью технологий искусственного интеллекта. Термин deep fake произошёл от двух понятий – deep learning(технология глубокого обучения нейросетей) и fake (подделка).
Если раньше компромат на оппонентов фабриковали в Фотошопе, что, в принципе, легко разоблачалось, то теперь способы обмана резко шагнули далеко вперёд.
Нейросети не топорно лепят лицо с одной картинки к телу на другой. Нет. Они с нуля создают вымышленные медиа, где человек выполняет то, что никогда не сделал бы в реальной жизни. Ну, или находится в окружении, в котором никогда не был. В результате получаются неотличимые от реальности картинки, видео и записи голоса.
Наиболее распространённое применение дипфейков – пока что развлечения. Это взлетающий тренд.
Однако уже сейчас создаётся масса фальшивых видео для манипуляций с общественным мнением. Например, дипфейки применяют для распространения липовых новостей или вбросов о конкурентах. Фиктивные записи со знаменитостями помогают навязывать определенные взгляды и доказывать ложные факты.
Другой пример дипфейков – поддельный контент 18+, где лица актёров заменяют на лица жертв этого жестокого подлога.
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев