【发布时间】:2011-05-01 10:44:52
【问题描述】:
我正在阅读这篇论文: 用于实时跟踪的自适应背景混合模型 (1999),作者:Chris Stauffer、W. Eric L. Grimson
他们的方法适用于长视频,当高斯混合模型稳定一段时间后,人们可以开始制作斑点。
但这不适用于短视频,例如http://cvrc.ece.utexas.edu/SDHA2010/videos/human_interaction.zip 这里从第一帧本身来看,某些部分实际上是前景的一部分。
谁能指出一些处理过这个问题的论文?
谢谢, 考希克
【问题讨论】:
-
我遇到了同样的问题。我所做的是通过算法运行视频一次以初始化背景模型,然后第二次(保留初始化的背景模型)进行分割。对于离线分割,这很好。
标签: image-processing computer-vision background-subtraction