АНАЛІЗ МЕТОДІВ ТА ЗАСОБІВ АКТИВНОГО ЗАХИСТУ ВІД DEEPFAKE
DOI:
https://doi.org/10.31649/1997-9266-2025-180-3-126-132Ключові слова:
Deepfake, стеганографія, водяні знаки, штучний інтелект, машинне навчання, інформаційна атака, захист інформаціїАнотація
Розвиток штучного інтелекту є одним з головних трендів останніх років. Хоч така технологія багато в чому служить на благо людства, але вона може використовуватись і для зловмисних дій, як от поширення дезінформації чи шантаж.
Для реалізації цих злочинних дій часто застосовуються технології для створення так званого Deepfake-контенту. Deepfake — це загальна назва для зображень, відео- та аудіофайлів, створених за допомогою штучних нейронних мереж, які зображають, як певна людина говорить чи вчиняє щось, чого в дійсності ніколи не було. Завдяки використанню штучного інтелекту такі матеріали здаються справжніми особам, що не знають про їхнє походження. Без використання спеціальних технічних засобів людям важко відрізнити справжнє зображення від підробленого.
Технології генерації контенту за допомогою штучного інтелекту, зокрема Deepfake, все частіше застосовуються для створення матеріалів, які використовуються для дезінформаційних кампаній, шантажу та інших зловмисних дій. В зв’язку з цим існує необхідність в розробці засобів для захисту від зловмисного використання Deepfake. Пасивні методи захисту, які ґрунтуються на можливості моделей машинного навчання відрізнити автентичний контент від згенерованого, залежать від архітектур моделей для генерації Deepfake-контенту, тому швидко застарівають з темпом розвитку останніх. Тому існує необхідність в розвитку активних методів захисту, які ґрунтуються на використанні водяних знаків з метою їх відслідковування або перешкоджають роботі моделей для генерації Deepfake.
У роботі подано опис та аналіз наявних активних методів захисту від Deepfake, а також проаналізовано напрямки їх цільових застосувань, їхні переваги та недоліки, технічні характеристики, і запропоновано напрямки для подальших досліджень у цій галузі. Активна увага приділяється засобам захисту, що ґрунтуються на методах стеганографії та із застосуванням водяних знаків. Розглянуто переваги активних методів захисту над пасивними.
Посилання
Pause Giant AI Experiments: An Open Letter. [Electronic resource]. Available: https://futureoflife.org/open-letter/pause-giant-ai-experiments . Accessed: 26.03.2025.
Six Months Ago Elon Musk Called for a Pause on AI. Instead Development Sped Up. [Electronic resource]. Available: https://www.wired.com/story/fast-forward-elon-musk-letter-pause-ai-development/ . Accessed: 26.03.2025.
Z. Wang, E. P. Simoncelli, and A. Bovik, “Multiscale structural similarity for image quality assessment,” The Thrity-Seventh Asilomar Conference on Signals, Systems & Computers, 2003, 1398 p.
R. Wang, F. Juefei-Xu., M. Luo., Y. Liu., and L. Wang, “FakeTagger: Robust Safeguards against DeepFake Dissemination via Provenance Tracking,” Proceedings of the 29th ACM International Conference on Multimedia, 2020.
E. L. Josephs, C. L. Fosco, and A. Oliva, “Artifact magnification on deepfake videos increases human detection and subjective confidence,” ArXiv, 2023.
S. D. Bray, S. D. Johnson, and B. Kleinberg, “Testing Human Ability To Detect Deepfake Images of Human Faces,” Journal of Cybersecurity, 2022.
T. Wang, X. Liao, K. Chow, X. Lin, and Y.Wang, “Deepfake Detection: A Comprehensive Survey from the Reliability Perspective,” ACM Computing Surveys, 2022, 58 p.
Y. Mirsky, and W. Lee, “The Creation and Detection of Deepfakes: A Survey,” ACM Computing Surveys (CSUR), 2021. v. 54, 1 p.
H. Nguyen-Le, V. Tran, D. Nguyen, and N. Le-Khac, “Deepfake Generation and Proactive Deepfake Defense,” A Comprehensive Survey, 2024, 1 p. (Preprint)
Deepfake Cases Surge in Countries Holding 2024 Elections, Sumsub Research Shows. [Electronic resource]. Available: https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/ . Accessed: 26.03.2025).
A. Malanowska, W. Mazurczyk, T. K. Araghi, and D. Megías, “Digital Watermarking — A Meta-Survey and Techniques for Fake News Detection,” IEEE Access, 2024, vol. 12, 36311 p.
М. В. Рябокінь, Є. В. Котух, і О. І. «Папилев, Вплив технології Deepfake на Fintech сектор: поточний стан в Україні та стратегії запобігання кіберзлочинності,» Проблеми і перспективи економіки та управління, № 1 (37), с. 310-328, 2024.
P. Neekhara, S. Hussain, X. Zhang, K. Huang, “FaceSigns: Semi-fragile Watermarks for Media Authentication,” ACM Transactions on Multimedia Computing, Communications and Applications, vol. 20, pp. 1-21, 2024.
Y. Zhao, B. Liu, M. Ding, B. Liu, T. Zhu, and X. Yu, “Proactive Deepfake Defence via Identity Watermarking,” Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2023, pp. 4602-4611.
S. Lan, K. Liu, Y. Zhao, C. Yang, “Facial Features Matter: a Dynamic Watermark based Proactive Deepfake Detection Approach,” 2024, Preprint arXiv.
##submission.downloads##
-
pdf
Завантажень: 8
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Автори, які публікуються у цьому журналі, згодні з такими умовами:
- Автори зберігають авторське право і надають журналу право першої публікації.
- Автори можуть укладати окремі, додаткові договірні угоди з неексклюзивного поширення опублікованої журналом версії статті (наприклад, розмістити її в інститутському репозиторії або опублікувати її в книзі), з визнанням її первісної публікації в цьому журналі.
- Авторам дозволяється і рекомендується розміщувати їхню роботу в Інтернеті (наприклад, в інституційних сховищах або на їхньому сайті) до і під час процесу подачі, оскільки це сприяє продуктивним обмінам, а також швидшому і ширшому цитуванню опублікованих робіт (див. вплив відкритого доступу).