Preview

Доклады Национальной академии наук Беларуси

Расширенный поиск

Алгоритм отслеживания объектов движущейся видеокамерой

https://doi.org/10.29235/1561-8323-2020-64-2-144-149

Аннотация

Представлен алгоритм ACT (Adaptive Color Tracker) отслеживания объектов, наблюдаемых движущейся видеокамерой. Одной из особенностей работы алгоритма является адаптация набора признаков объекта к фону текущего кадра. При работе с текущим кадром из исходного набора признаков объекта, сформированного при его выделении на первом кадре, удаляются те, которые присущи не только объекту, но и в большой мере фону. Такие признаки не только не способствуют отделению объекта интереса от фона – они затрудняют корректное обнаружение объекта. Оставляются признаки объекта в большей мере характерные объекту и в то же время наименее характерные для фона текущего кадра. Признаки объекта и фона формируются на основе цветового представления кадров. Они вычисляются путем кластеризации 3D-векторов цвета пикселов кадров быстрой версией хорошо известного алгоритма k-средних или более простым и быстрым разбиением цветового пространства на 3D-параллелепипеды с последующей заменой цвета каждого пиксела на среднее значение векторов цвета, попавших в тот же параллелепипед, что и текущий цвет. Еще одна особенность алгоритма заключается в его вычислительной простоте, что делает возможным его использование на небольших мобильных вычислителях, например, на Jetson TXT1 или TXT2.

Алгоритм был протестирован на видеопоследовательностях, снятых различными видеокамерами, а также на общеизвестном наборе данных TV77, содержащем 77 различных размеченных видеопоследовательностей. Тесты показали работоспособность алгоритма. На тестовых изображениях его точность и быстродействие превосходили показатели трекеров, реализованных в библиотеке компьютерного зрения OpenCV 4.1.

Об авторе

Б. А. Залесский
Объединенный институт проблем информатики Национальной академии наук Беларуси
Беларусь

Залесский Борис Андреевич – д-р физ.-мат. наук, заведующий лабораторией.

ул. Сурганова, 6, 220012, Минск


Список литературы

1. Yilmaz, A. Object tracking: A survey / A. Yilmaz, O. Javed, M. Shah // ACM Computing Surveys. – 2006. – Vol. 38, N 4. – P. 1–13. https://doi.org/10.1145/1177352.1177355

2. Visual tracking: An experimental survey / A. W. Smeulders [et al.] // IEEE TPAMI. – 2014. – Vol. 36, N 7. – P. 1442– 1467. https://doi.org/10.1109/tpami.2013.230

3. Video processing techniques for traffic flow monitoring: A survey / B. Tian [et al] // 14th International IEEE Conference on Intelligent Transportation Systems. – Washington, 2011. – P. 1103–1108. https://doi.org/10.1109/itsc.2011.6083125

4. Chen, Z. An experimental survey on correlation filter-based tracking [Electronic resource] / Z. Chen, Z. Hong, D. Tao. – 2015. – Mode of access: https://arxiv.org/abs/1509.05520. – Date of access: 05.09.19.

5. A survey of appearance models in visual object tracking / X. Li [et al.] // ACM Transactions on Intelligent Systems and Technology. – 2013. – Vol. 4, N 4. – P. 1–48. https://doi.org/10.1145/2508037.2508039

6. Liu, Q. Survey of single-target visual tracking methods based on online learning / Q. Liu, X. Zhao, Z. Hou // IET Computer Vision. – 2014. – Vol. 8, N 5. – P. 419–428. https://doi.org/10.1049/iet-cvi.2013.0134

7. Fiaz, M. Tracking Noisy Targets: A Review of Recent Object Tracking Approaches [Electronic resource] / M. Fiaz, A. Mahmood, S.-K. Jung. – 2018. – Mode of access: https://arxiv.org/abs/1802.03098. – Date of access: 05.09.19.

8. Lucas B. An iterative image registration technique with an application to stereo vision / B. Lucas, T. Kanade // Proceedings of the 7th International Joint Conference on Artificial Intelligence (IJCAI’81). – Vancouver, 1981. – Vol. 2. – P. 674–679.

9. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR) [Electronic resource]. – Long Beach, 2019. – Mode of access: http://openaccess.thecvf.com/CVPR2019.ru. – Date of access: 05.09.19.


Рецензия

Просмотров: 771


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1561-8323 (Print)
ISSN 2524-2431 (Online)