Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 12(308)

Рубрика журнала: Информационные технологии

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3, скачать журнал часть 4, скачать журнал часть 5, скачать журнал часть 6, скачать журнал часть 7

Библиографическое описание:
Алишаева Б. DEEPFAKE И МЕДИАБЕЗОПАСНОСТЬ: КАК ОТЛИЧИТЬ РЕАЛЬНОСТЬ ОТ ПОДДЕЛКИ // Студенческий: электрон. научн. журн. 2025. № 12(308). URL: https://sibac.info/journal/student/315/365682 (дата обращения: 15.04.2025).

DEEPFAKE И МЕДИАБЕЗОПАСНОСТЬ: КАК ОТЛИЧИТЬ РЕАЛЬНОСТЬ ОТ ПОДДЕЛКИ

Алишаева Ботакоз

студент, кафедра Медиакомумуникаци и история Казахстана, Международный университет информационных технологий,

РК, г. Алматы

Велитченко Светлана Николаевна

научный руководитель,

канд. филол. наук, доц. ВАК, ассоциированный профессор кафедры медиакоммуникаций и истории Казахстана, проф. Российской Академии Естествознания, Международный университет информационных технологий,

РК, г. Алматы

DEEPFAKE AND MEDIA SECURITY: HOW TO DISTINGUISH REALITY FROM FAKE

 

Botakoz Alishayeva

student, Department of Media Communication and History of Kazakhstan, The International Information Technology University,

Kazakhstan, Almaty

Svetlana Velitchenko

scientific supervisor, candidate of philological sciences, associate professor of the Higher Attestation Commission, associate professor of the Department of Media Communications and History of Kazakhstan, professor of the Russian Academy of Natural Sciences, International Information Technology University,

Kazakhstan, Almaty

 

АННОТАЦИЯ

В современном цифровом мире технологии deepfake становятся все более распространенными, представляя серьезную угрозу медиабезопасности. Данный метод позволяет с высокой точностью изменять изображения и видео, создавая иллюзию реальности. В статье рассматриваются принципы работы deepfake, угрозы, которые они несут в различных сферах, а также методы детекции подделок. Анализируются алгоритмы машинного обучения, используемые для создания и выявления поддельных медиафайлов. Приводятся примеры известных случаев применения deepfake и возможные стратегии защиты. В заключении предлагаются рекомендации по повышению цифровой грамотности и предотвращению распространения дезинформации.

ABSTRACT

In today's digital world, deepfake technologies are becoming increasingly widespread, posing a significant threat to media security. This method allows for high-precision alterations of images and videos, creating an illusion of reality. The article discusses the principles of deepfake operation, the threats they pose in various fields, and methods for detecting fakes. Machine learning algorithms used to create and identify fake media files are analyzed. Examples of well-known deepfake applications and possible protection strategies are provided. In conclusion, recommendations for improving digital literacy and preventing the spread of disinformation are suggested. 

 

Ключевые слова: deepfake, медиабезопасность, цифровая грамотность, искусственный интеллект, фальсификация видео.

Keywords: deepfake, media security, digital literacy, artificial intelligence, video falsification.

 

Введение

С развитием технологий искусственного интеллекта (ИИ) возникла новая угроза в области медиабезопасности — deepfake. Этот термин обозначает методы создания поддельных изображений и видео с использованием алгоритмов машинного обучения. Deepfake может применяться как в развлекательных целях, так и для манипуляции общественным мнением, что делает его серьезной угрозой информационной безопасности.

Принципы работы deepfake

Технология deepfake основана на использовании генеративных соревновательных сетей (GANs), которые позволяют создавать реалистичные цифровые манипуляции. Алгоритмы обучаются на больших наборах данных, анализируя и воспроизводя движения лиц, мимику и голосовые характеристики.

В 2019 году был создан deepfake-ролик, в котором бывший президент США Барак Обама произносит речь, которую он никогда не говорил. Этот ролик был создан с использованием GANs, где генератор создавал изображение Обамы, а дискриминатор проверял его на реалистичность. Для создания качественного deepfake требуется огромное количество данных, включая тысячи изображений и часов видео с целевым лицом. Это делает процесс трудоемким, но результаты могут быть чрезвычайно убедительными.

Deepfake использует методы искусственного интеллекта для создания синтетических изображений и видео. В 2020 году исследователи из MIT продемонстрировали технологию «Deep Video Portraits», которая позволяла в режиме реального времени менять выражение лица и движения головы человека в видео. Подобные технологии используются в киноиндустрии для замены лиц актеров, а также в игровой индустрии для создания фотореалистичных персонажей.

В 2022 году компания NVIDIA представила новую нейросеть StyleGAN3, способную генерировать реалистичные изображения людей, которых не существует. Это позволяет создавать не только поддельные фотографии, но и видеоролики с участием несуществующих личностей, что усложняет идентификацию подделок.

Угрозы и риски использования deepfake

Несмотря на полезные применения deepfake (например, в киноиндустрии), существуют значительные риски:

- Политическая дезинформация: В 2020 году в Габоне был распространен deepfake-ролик, в котором президент Али Бонго, находившийся на лечении за границей, якобы обращался к нации. Это вызвало политический кризис и массовые протесты.

- Мошенничество и вымогательство: В 2021 году мошенники использовали deepfake-аудио, чтобы выдать себя за руководителя компании и убедить сотрудника перевести крупную сумму денег на поддельный счет. В 2019 году британская компания стала жертвой мошенников, которые с помощью deepfake-аудио имитировали голос генерального директора. Они убедили сотрудника перевести 220 000 евро на счет мошенников.

- Компрометация личности: Известные личности, такие как актеры и политики, часто становятся жертвами deepfake, где их лица используются в порнографических роликах или других компрометирующих материалах. В 2021 году исследование выявило, что более 90% deepfake-видео в интернете связаны с порнографическим контентом, а жертвами чаще всего становятся женщины.

- Распространение фальшивых новостей: В 2022 году deepfake-видео с участием украинского президента Владимира Зеленского, в котором он якобы призывал солдат сложить оружие, было распространено в социальных сетях. Это вызвало панику и дезориентацию среди населения.

Методы детекции и защиты

Для борьбы с deepfake разрабатываются различные методы детекции, которые основаны на анализе цифровых артефактов и неестественных особенностей в поддельных медиафайлах.

- Анализ пиксельных аномалий: Deepfake-видео часто содержат артефакты, такие как несовершенства в текстуре кожи или неестественное освещение. Алгоритмы машинного обучения могут обнаруживать эти аномалии. В 2022 году Google**(По требованию Роскомнадзора информируем, что иностранное лицо, владеющее информационными ресурсами Google является нарушителем законодательства Российской Федерации – прим. ред.) разработал алгоритм FaceForensics++, способный выявлять поддельные видеоролики с точностью до 98%.

FaceForensics++ — это расширенный датасет и методология для оценки алгоритмов детекции манипулированного видеоконтента, в частности дипфейков. Он играет ключевую роль в разработке и тестировании современных моделей машинного обучения, направленных на выявление поддельных лиц в видеозаписях. FaceForensics++ содержит 1000 оригинальных видео с людьми, а также их поддельные версии, созданные с помощью методов Deepfakes, Face2Face, FaceSwap и NeuralTextures:

Deepfakes — подмена лица с использованием нейросетевых алгоритмов.

Face2Face — изменение мимики с помощью компьютерной графики.

FaceSwap — замена лиц между разными людьми.

NeuralTextures — применение генеративных текстур для модификации внешности.

Датасет включает несжатые и сжатые версии, имитируя реальные условия распространения видео в интернете. Анализ проводится с использованием сверточных нейросетей (CNN), которые обучаются выявлять ключевые признаки подделки:

  1. Артефакты наложения лиц — ошибки в контуре лица и дефекты текстур кожи.
  2. Несоответствия в освещении, возникающие при неправильном наложении изображений.
  3. Аномалии в движениях губ и мимике, выявляемые путем анализа последовательности кадров.
  4. Изучение артефактов сжатия — сравнение видео до и после его обработки кодеками для выявления искажений, указывающих на манипуляцию.

Основными метриками оценки являются точность (accuracy), полнота (recall) и AUC-ROC.

- Определение неестественных движений глаз и мимики: В поддельных видео движения глаз и мимика могут выглядеть неестественно. Например, глаза могут моргать слишком редко или слишком часто.

- Использование алгоритмов машинного обучения: Исследователи постоянно улучшают алгоритмы машинного обучения, чтобы они могли лучше распознавать подделки. Например, в 2021 году Facebook*(социальная сеть, запрещенная на территории РФ, как продукт организации Meta, признанной экстремистской – прим.ред.) (ныне Meta) запустил конкурс на создание лучшего алгоритма для обнаружения deepfake. В 2021 году Microsoft, Facebook*(социальная сеть, запрещенная на территории РФ, как продукт организации Meta, признанной экстремистской – прим.ред.) и Google**(По требованию Роскомнадзора информируем, что иностранное лицо, владеющее информационными ресурсами Google является нарушителем законодательства Российской Федерации – прим. ред.) запустили проект Deepfake Detection Challenge, чтобы разработать инструменты для автоматического обнаружения фальсификаций.

- Использование блокчейна для проверки подлинности: Некоторые компании разрабатывают системы, которые используют блокчейн для хранения цифровых отпечатков оригинальных медиафайлов. Это позволяет проверять подлинность контента.

В 2020 году компания Microsoft представила инструмент под названием "Video Authenticator", который анализирует видео на наличие признаков deepfake, таких как несовершенства в текстуре кожи или неестественное освещение. Video Authenticator анализирует видеокадры в реальном времени, вычисляя оценку достоверности (confidence score) для каждого кадра. Основные этапы работы:

Извлечение кадров – алгоритм анализирует видеопоток по отдельным кадрам.

Поиск артефактов – выявляются следы сглаживания, неестественных теней и некорректных границ лица.

Прогнозирование подделки – нейросеть обучена на датасетах, включая FaceForensics++, что позволяет ей различать оригинальные и измененные кадры.

Вывод результата – система показывает уровень достоверности контента.

Исследование Video Authenticator проводится в сотрудничестве с аналитиками и организациями по цифровой безопасности. Разработчики тестируют алгоритм на различных наборах данных, включая реальные дипфейки, созданные с использованием новейших генеративных моделей. Анализируется устойчивость технологии к новым методам манипуляций, таким как GAN-генерированные лица и высококачественные дипфейки.

Заключение

Deepfake представляет собой одну из самых серьезных угроз медиабезопасности. Для эффективной борьбы с этим явлением необходимо повышать цифровую грамотность, внедрять автоматизированные системы детекции и развивать законодательные меры.

 

Список литературы:

  1. Goodfellow I., Pouget-Abadie J., Mirza M., et al. Generative Adversarial Networks. arXiv preprint arXiv:1406.2661, 2014.
  2. Korshunov P., Marcel S. DeepFakes: a New Threat to Face Recognition? Assessment and Detection. arXiv preprint arXiv:1812.08685, 2018.
  3. Zhang X., Karaman S., Chang S. Detecting and Simulating Artifacts in GAN Fake Images. IEEE International Workshop on Information Forensics and Security (WIFS), 2019.
  4. Li Y., Yang X., Sun P., et al. Celeb-DF: A Large-Scale Challenging Dataset for DeepFake Forensics. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2020.

Оставить комментарий