ПІДВИЩЕННЯ ЕФЕКТИВНОСТІ ТРАНСФЕРНОГО НАВЧАННЯ ЗА ДОПОМОГОЮ ДИНАМІЧНОГО ВИЗНАЧЕННЯ КІЛЬКОСТІ ШАРІВ ДЛЯ ЗАМОРОЗКИ НА ОСНОВІ ПОДІБНОСТІ КЛАСІВ
DOI:
https://doi.org/10.31649/1997-9266-2026-185-2-48-54Ключові слова:
трансферне навчання, динамічне заморожування шарів, косинусна відстань, ResNet-50, CIFAR-10, скорочення ресурсівАнотація
Запропоновано метод, який автоматично визначає кількість шарів нейронної мережі для заморожування під час трансферного навчання. Цей підхід ґрунтується на використанні косинусної відстані між векторними представленнями класів вихідного та цільового наборів даних, що дозволяє оцінити їхню семантичну близькість і відповідно регулювати глибину заморозки шарів для подальшого перенавчання. На відміну від фіксованих стратегій, динамічний підхід забезпечує гнучкіше використання попередніх знань і зменшує потребу у надмірних обчисленнях. У роботі використано архітектуру ResNet-50 та підмножини класів набору CIFAR-10, для яких формувалися середні векторні значення та обчислювалася косинусна відстань. На основі отриманих значень динамічно визначалося, яку кількість шарів моделі доцільно заморозити та залишити незмінною, а які шари потребують перенавчання. Ефективність методу оцінювалася шляхом порівняння класичного навчання з нуля та навчання із застосуванням цього підходу трансферного навчання. Отримані результати показали, що запропонований підхід сприяє підвищенню якості узагальнення та скороченню часу тренування, демонструючи переваги використання динамічного визначення кількості шарів для заморозки. Метод може застосовуватися у задачах, де важливими є швидка адаптація, обмежені дані та економне використання ресурсів. Запропонована методика є перспективною, оскільки дозволяє ефективно поєднувати точність моделі з меншими обчислювальними витратами, забезпечуючи можливість масштабування, повторного використання певної кількості шарів та швидкої інтеграції у різні прикладні області, завдяки чому вона є цінним інструментом для подальших досліджень і практичних застосувань сьогодення.
Посилання
S. J. Pan, and Q. Yang, “A Survey on Transfer Learning,” IEEE Transactions on Knowledge and Data Engineering, vol. 22, no. 10, pp. 1345-1359, 2010. https://doi.org/10.1109/TKDE.2009.191 .
F. Zhuang, et al., “A Comprehensive Survey on Transfer Learning,” Proceedings of the IEEE, vol. 109, no. 1, pp. 43-76, 2020. https://doi.org/10.1109/JPROC.2020.3004555 .
A. Huang, “Similarity measures for text document clustering,” Proceedings of the Sixth New Zealand Computer Science Research Student Conference, 2008, pp. 49-56.
J. Yosinski, et al., “How transferable are features in deep neural networks?” Advances in Neural Information Processing Systems, vol. 27, pp. 3320-3328, 2014. https://doi.org/10.48550/arXiv.1411.1792 .
D. A. Ivanov, “Reducing the training time of models using transfer learning,” Scientific Works of VNTU, no. 3, 2024. https://doi.org/10.31649/2307-5376-2024-3-25-30 .
S. Kornblith, J. Shlens, and Q. V. Le, “Do Better ImageNet Models Transfer Better?” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019, pp. 2661-2671. https://doi.org/10.1109/CVPR.2019.00277 .
M. Raghu, C. Zhang, J. Kleinberg, and S. Bengio, “Transfusion: Understanding Transfer Learning for Medical Imaging,” Advances in Neural Information Processing Systems, vol. 32, 2019. https://arxiv.org/abs/1902.07208 .
S. Ben-David, J. Blitzer, K. Crammer, and F. Pereira, “A Theory of Learning from Different Domains,” Machine Learning, vol. 79, pp. 151-175, 2010. https://doi.org/10.1007/s10994-009-5152-4 .
K. He, X. Zhang, S. Ren, and J. Sun, “Deep Residual Learning for Image Recognition,” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 770-778. https://doi.org/10.1109/CVPR.2016.90 .
A. Krizhevsky, Learning Multiple Layers of Features from Tiny Images, University of Toronto, 2009.
##submission.downloads##
-
pdf
Завантажень: 0
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Автори, які публікуються у цьому журналі, згодні з такими умовами:
- Автори зберігають авторське право і надають журналу право першої публікації.
- Автори можуть укладати окремі, додаткові договірні угоди з неексклюзивного поширення опублікованої журналом версії статті (наприклад, розмістити її в інститутському репозиторії або опублікувати її в книзі), з визнанням її первісної публікації в цьому журналі.
- Авторам дозволяється і рекомендується розміщувати їхню роботу в Інтернеті (наприклад, в інституційних сховищах або на їхньому сайті) до і під час процесу подачі, оскільки це сприяє продуктивним обмінам, а також швидшому і ширшому цитуванню опублікованих робіт (див. вплив відкритого доступу).