Наконец-таки, деньги из воздуха уже не скачаешь.
Deepfakes - это высокореалистичные, синтетически сгенерированные или манипулированные видео, изображения или аудиозаписи, созданные с использованием передовых технологий искусственного интеллекта (ИИ) и машинного обучения (МО), в частности глубокого обучения (ГОО). Этот термин представляет собой портманто от слов "глубокое обучение" и "подделка". Эти методы позволяют убедительно заменить или синтезировать лица, голоса и действия, создавая впечатление, что человек сказал или сделал то, чего на самом деле не делал. Зародившись в онлайн-сообществах, технология deepfake быстро развивалась, открывая как творческие возможности, так и серьезные этические проблемы.
Как создаются подделки.
В основе многих deepfakes лежит технология генеративных адверсарных сетей (Generative Adversarial Networks, GAN). GAN состоит из двух конкурирующих нейронных сетей: генератора, который создает поддельный контент (например, изображение с подмененным лицом), и дискриминатора, который пытается отличить реальный контент от поддельного. Путем итеративного обучения генератор становится все более искусным в создании реалистичных подделок, которые могут обмануть дискриминатор и, в конечном счете, наблюдателей.
Еще одна распространенная техника - автокодировщики, которые изучают сжатые представления (кодировки) лиц из больших наборов данных, а затем декодируют эти представления для восстановления или замены лиц на целевых видео. Для создания убедительных глубоких подделок часто требуются значительные обучающие данные (изображения или видеоклипы целевых лиц) и значительные вычислительные ресурсы GPU, часто управляемые с помощью таких платформ, как Ultralytics HUB.
Применение и примеры.
Технология Deepfake имеет широкий спектр применения - от полезных до вредоносных действий:
Развлечения и СМИ: Используется в кинематографе для старения актеров, воссоздания исторических личностей или улучшения дубляжа путем изменения движений губ в соответствии с переведенным звуком. Например, кинематографисты использовали технику deepfake в фильме Мандалорианец для цифрового воссоздания более молодой версии актера. Другой пример - Synthesia, платформа, использующая аватары ИИ для создания обучающих видео и презентаций, эффективно генерирующая синтетический видеоконтент.
Образование и доступность: Создание виртуальных преподавателей или оживление исторических личностей в образовательных целях. Клонирование голоса может помочь людям, потерявшим голос.
Генерациясинтетических данных: Создание искусственных наборов данных для обучения других ML-моделей, особенно в области компьютерного зрения, где реальные данные могут быть скудными или чувствительными. Это может помочь повысить надежность таких моделей, как Ultralytics YOLO11, для таких задач, как распознавание лиц.
Дезинформация и злой умысел: Распространение политической дезинформации, создание фальшивых отзывов о знаменитостях или скандалов, создание порнографии без согласия, а также мошенничество с помощью пародий (например, подделка голоса для авторизации транзакций). Все это вызывает серьезные опасения по поводу этики ИИ и конфиденциальности данных.
Обнаружение подделок
Рост числа глубоких подделок стимулировал исследования методов их обнаружения. Они часто включают обучение ML-моделей для выявления тонких несоответствий или артефактов, характерных для сгенерированного контента, таких как необычные моргания, неестественные выражения лица или несоответствия в освещении или тенях. Методы компьютерного зрения (КЗ) занимают центральное место в этой работе. Однако обнаружение фальшивок - это постоянная гонка вооружений, поскольку методы создания фальшивок постоянно совершенствуются, чтобы избежать обнаружения. Такие организации, как Deepfake Detection Challenge (DFDC) от Meta AI, и инициативы таких компаний, как Microsoft, направлены на улучшение состояния технологии обнаружения. Стандартные эталоны и наборы данных имеют решающее значение для разработки и оценки этих моделей обнаружения
****************************************************************************************
Халяву и дурилово, надо полагать, урезали, экономия в YouTube на миллионных просмотрах будет большая.
YouTube называет обновление «незначительным уточнением», но по сути оно открывает путь для массового отключения от монетизации ИИ-каналов — лент, наполненных бессмысленным или вводящим в заблуждение контентом
https://4pda.to/2025/07/10/444352/youtube_nachinaet_borbu_s_nashestviem_ii_video/*********************************
https://4pda.to/2025/05/01/441681/ne_bag_a_ficha_iz_google_play_propala_pochti_polovina_prilozhenij/