物体和行人监测时候,遮挡问题的一般解决方案是什么?基于摄像头视野较长的识别方案一般是什么样的?@349zzjau

最近下载了一些做物体监测和行人监测的Demo代码,都是faster rcnn一类的模型代码,在不同场景下试了试。
我体会到两个bug:
其一是在场景中任务或者物体较为密集的时候,监测精度下降比较快,比如说地铁场景里有10个人凑成一堆等车(3米左右的摄像头,俯视视角,其中第二层和第三层人的上半身还都能看到),能识别出来的只有在前面的两个人,但是如果是10个人谁也不挨着谁就都能认出来。
其二是一般广场摄像头或者通道摄像头的视野很远,远近物体之间大小差异很明显,近处的人就都识别出来了,但是远处的就都没识别出来。
 
总结起来就好像附件的图一样。
我先请问老师,@349zzjau 张宗健老师,这种情况下一般选用的解决方案是什么样的?比如我应该看那一系列的论文?关注那一个数据集上不同模型的表现?
 
另外其他同学有建议也请一定不吝赐教!
已邀请:
你说的这两个是关于遮挡和尺度的问题。我对这块儿并没有很广的论文阅读,只能给点大概的建议,希望有用。
 
首先,最简单的思路就是数据集补全,使用有遮挡的数据集和小尺度的数据集。
 
其次,就是模型上改进。
1)对于遮挡来说,就是加入一些身体部分的检测器,如头、上半身、下半身等。然后在这些检测器上, 做进一步的被遮挡行人检测。另外,人脸检测中遮挡问题的解决方案或许可以拿来借鉴一下,或者看有没有将DPM思想用在DNN上的论文。 
2)对于多尺度来说,可以看一些**Multi-scale** Detection或segmentation的论文
抱歉,忘切换成老师账号了。那个是备用账号。

要回复问题请先登录注册