在计算机视觉CV领域,视觉跟踪是其中一个重要的子问题。从我的角度看,视觉跟踪就是用在机器人上,用在移动设备上,因此,何不把一些跟踪算法放在iPhone上看看实际的跟踪效果。这才是最真实的对比,使用一些视频毕竟不实际,而且关键是不能很好的对比实时性。对于移动设备而已,实时性是最重要的吧。之所以有跟踪问题的出现,也是因为绝大多数的物体检测Object Detection算法实在是太慢了,根本无法用在视频当中。因此才有了Object Tracking的问题。最终的目标也就是Real Time Visual Object Tracking。现在的很热的四轴无人机的研究热点不就是自动跟踪物体嘛。但是这完全取决于跟踪算法的水平。难度确实是大。
这里我使用iPhone来做测试。iPhone的性能在移动设备上也不错。因此看他的算法效果还是不错的,关键是方便,想跟踪个什么东西直接在手机屏幕画个框就ok了。
其次现在的跟踪问题都变成了在视频上初始画个框,然后要求框一直跟着初始框内的物体。其实这种简化的问题描述是有问题的,但不妨碍CV界如火如荼的研究。
直接放代码了:
https://github.com/songrotek/Tracking-on-iOS
里面包含了CMT,TLD,Color Tracking,CT,Camshift,Struck跟踪算法。具体算法我这里没办法细说,具体细节我也是在研究,只不过是把其C++源代码合到xcode中实现了。
这中间还是耗费了很多的精力,分享出来希望对也在研究CV的童鞋有帮助!
下面是CMT算法的效果,其实挺赞的!实时性很不错!
版权声明:本文为博主原创文章,未经博主允许不得转载。
计算机视觉 之 在iOS上测试跟踪算法Visual Object Tracking Algorithm
原文地址:http://blog.csdn.net/songrotek/article/details/47422057