КАСКАДНИЙ МЕТОД ДЕТЕКТУВАННЯ ПОЛУМ'Я У ВІДЕОПОТОЦІ З ВИКОРИСТАННЯМ ГЛИБОКИХ ЗГОРТКОВИХ НЕЙРОННИХ МЕРЕЖ

Ключові слова: виявлення руху, примітиви Хаара, трансферне навчання, інтелектуальні системи, комп'ютерний зір

Анотація

Запропоновано каскадний бінарний класифікатор, який базується на використанні суміші Гауссового розподілу, примітивів Хаара та глибоких згорткових нейронних мереж. Застосування такого підходу дає змогу, з одного боку, здійснювати моніторинг середовища в режимі, наближеному до реального часу, а з іншого – забезпечити досить високий показник ефективності виявлення полум'я на відеозображеннях (92,7 %). На першому етапі, за допомогою використання примітивів Хаара, до попередньо виокремлених рухомих регіонів відеозображення генеруються так звані регіони інтересу. На другому етапі отримані регіони інтересу передаються для класифікації на вхід до глибокої згорткової нейронної мережі, яка формує висновок про наявність або відсутність полум'я на зображенні. У межах проведення дослідження запропоновано модифіковану модель нейронної мережі – SqueezeNet. Виявлено, що за допомогою використання трансферного підходу під час навчання нейронної мережі, існує змога мінімізувати кількість хибних викликів, особливо на об'єктах, які візуально можуть нагадувати полум'я, та зменшити часові затрати, які необхідні для її навчання. Для покращення ефективності роботи нейронної мережі здійснено низку тонких налаштувань (ансамбль з нейронних мереж, поворот зображень, зменшення показника швидкості навчання, кадрування та передискретизація), що сумарно дало змогу покращити її ефективність на 2,4 %.

Біографія автора

O. P. Maksymiv, Львівський державний університет безпеки життєдіяльності, м. Львів
ад'юнкт кафедри управління інформаційною безпекою

Посилання

Celik, T., & Demirel, H. (2009). Fire detection in video sequences using a generic color model. Fire Safety Journal, 2, 147–158. https://doi.org/10.1016/j.firesaf.2008.05.005

Celik, T., et al. (2007). Fire pixel classification using fuzzy logic and statistical color model. Acoustics, Speech and Signal Processing, ICASSP 2007. IEEE International Conference on. IEEE, 2007, 1205–1208. https://doi.org/10.1109/ICASSP.2007.366130

Chen, T., et al. (2004). An early fire-detection method based on image processing. ICIP '04, 1707–1710. https://doi.org/10.1109/ICIP.2004.1421401

Chen, T. H., et al. (2003). An intelligent real-time fire-detection method based on video processing. Security Technology, Proceedings. IEEE 37th Annual 2003 International Carnahan Conference on. – IEEE, 104–111. https://doi.org/10.1109/CCST.2003.1297544

Frizzi, S., et al. (2016). Convolutional neural network for video fire and smoke detection. Industrial Electronics Society, IECON 2016-42nd Annual Conference of the IEEE, 877–882. https://doi.org/10.1109/IECON.2016.7793196

He, K., et al. (2016). Deep residual learning for image recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 770–778. https://doi.org/10.1109/CVPR.2016.90

Horn, B. K. P., & Schunck, B. G. (1981). Determining optical flow. Artificial intelligence, 17(1–3), 185–203. https://doi.org/10.1016/0004-3702(81)90024-2

Iandola, F. N., et al. (2016). SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 0.5 MB model size. arXiv preprint arXiv:1602.07360, 1–13.

KaewTraKulPong, P., & Bowden, R. (2002). An improved adaptive background mixture model for real-time tracking with shadow detection. Video-based surveillance systems. Springer US, 135–144. https://doi.org/10.1007/978-1-4615-0913-4_11

Lipton, A., et al. (1998). Moving target classification and tracking from real-time video. Proc. of WACV'98, 8–14.

Maksymiv, O. P., Rak, T. E., & Peleshko, D. D. (2016). The Analytical Review of Fire Detecting Method by Using Computer Vision. Scientific Bulletin of UNFU, 26(5), 318–325. https://doi.org/10.15421/40260550

Maksymiv, O., et al. (2016). Deep convolutional network for detecting probable emergency situations. Data Stream Mining & Processing (DSMP), IEEE First International Conference on. IEEE, 2016, 199–202. https://doi.org/10.1109/DSMP.2016.7583540

Piccardi, M. (2004). Background subtraction techniques: a review. Systems, man and cybernetics, 2004 IEEE international conference on. IEEE, 2004, 3099–3104. https://doi.org/10.1109/ICSMC.2004.1400815

Qi, X., & Ebert, J. (2009). A Computer Vision-Based Method for Fire Detection in Color Videos. International journal of imaging, 9, 22–34.

Qingjie, Z., et al. (2016). Deep Convolutional Neural Networks for Forest Fire Detection. International Forum on Management, Education and Information Technology Application, 568–575. https://doi.org/10.2991/ifmeita-16.2016.105

Russakovsky, O., et al. (2015). ImageNet large scale visual recognition challenge. International Journal of Computer Vision, 115(3), 211–252. https://doi.org/10.1007/s11263-015-0816-y

Song Han (2016) SqueezeNet-DSD-Training. Retrieved from: https://github.com/songhan/SqueezeNet-DSD-Training.

Stauffer, C., & Grimson, W. E. L. (1999). Adaptive background mixture models for real-time tracking. Computer Vision and Pattern Recognition, IEEE Computer Society Conference on. IEEE, 1999, 246–252. https://doi.org/10.1109/CVPR.1999.784637

Szegedy, C., et al. (2015). Going Deeper with Convolutions, Computer Vision and Pattern Recognition (CVPR), 2015 IEEE Conference on, 1–9. https://doi.org/10.1109/CVPR.2015.7298594

Yosinski, J., et al. (2014). How transferable are features in deep neural networks? Advances in neural information processing systems, 3320–3328.

Опубліковано
2017-11-30
Як цитувати
Maksymiv, O. P. (2017). КАСКАДНИЙ МЕТОД ДЕТЕКТУВАННЯ ПОЛУМ’Я У ВІДЕОПОТОЦІ З ВИКОРИСТАННЯМ ГЛИБОКИХ ЗГОРТКОВИХ НЕЙРОННИХ МЕРЕЖ. Науковий вісник НЛТУ України, 27(9), 115-120. https://doi.org/10.15421/40270925
Розділ
Інформаційні технології