检测图像中的文本有多种方法。
我建议查看this question here,因为它也可以回答您的情况。虽然它不在 python 中,但代码可以很容易地从 c++ 转换为 python(只需查看 API 并将方法从 c++ 转换为 python,并不难。当我为自己的单独问题尝试他们的代码时,我自己做了) .此处的解决方案可能不适用于您的情况,但我建议您尝试一下。
如果我要这样做,我会执行以下过程:
准备您的图片:
如果您要编辑的所有图像都与您提供的图像大致相同,则实际设计由一系列灰色组成,并且文本始终为黑色。我会首先将所有非黑色(或已经是白色)的内容变白。这样做只会留下黑色文本。
# must import if working with opencv in python
import numpy as np
import cv2
# removes pixels in image that are between the range of
# [lower_val,upper_val]
def remove_gray(img,lower_val,upper_val):
hsv = cv2.cvtColor(img, cv2.COLOR_BGR2HSV)
lower_bound = np.array([0,0,lower_val])
upper_bound = np.array([255,255,upper_val])
mask = cv2.inRange(gray, lower_bound, upper_bound)
return cv2.bitwise_and(gray, gray, mask = mask)
现在您所拥有的只是黑色文本,目标是获取这些框。如前所述,有不同的解决方法。
笔画宽度变换 (SWT)
查找文本区域的典型方法:您可以使用 Boris Epshtein、Eyal Ofek 和 Yonatan Wexler 在"Detecting Text in Natural Scenes with Stroke Width Transform " 中描述的笔划宽度变换来查找文本区域。老实说,如果这和我相信的一样快速和可靠,那么这种方法比我下面的代码更有效。不过,您仍然可以使用上面的代码来移除蓝图设计,这可能有助于提高 swt 算法的整体性能。
Here is a c library 实现了他们的算法,但据说它非常原始并且文档不完整。显然,为了在 python 中使用这个库,需要一个包装器,目前我没有看到官方提供的包装器。
我链接的库是CCV。它是一个旨在用于您的应用程序的库,而不是重新创建算法。所以这是一个可以使用的工具,它违背了 OP 从“第一原则”中制作它的愿望,如 cmets 中所述。不过,如果您不想自己编写算法,知道它的存在还是很有用的。
自制非 SWT 方法
如果您有每张图片的元数据,比如在一个 xml 文件中,说明每张图片中标记了多少个房间,那么您可以访问该 xml 文件,获取有关图片中有多少标签的数据,然后然后将该数字存储在某个变量中,例如num_of_labels。现在拍摄您的图像并使其通过一个 while 循环,该循环以您指定的设定速率腐蚀,在每个循环中查找图像中的外部轮廓,并在具有与 num_of_labels 相同数量的外部轮廓时停止循环。然后只需找到每个轮廓的边界框即可。
# erodes image based on given kernel size (erosion = expands black areas)
def erode( img, kern_size = 3 ):
retval, img = cv2.threshold(img, 254.0, 255.0, cv2.THRESH_BINARY) # threshold to deal with only black and white.
kern = np.ones((kern_size,kern_size),np.uint8) # make a kernel for erosion based on given kernel size.
eroded = cv2.erode(img, kern, 1) # erode your image to blobbify black areas
y,x = eroded.shape # get shape of image to make a white boarder around image of 1px, to avoid problems with find contours.
return cv2.rectangle(eroded, (0,0), (x,y), (255,255,255), 1)
# finds contours of eroded image
def prep( img, kern_size = 3 ):
img = erode( img, kern_size )
retval, img = cv2.threshold(img, 200.0, 255.0, cv2.THRESH_BINARY_INV) # invert colors for findContours
return cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE) # Find Contours of Image
# given img & number of desired blobs, returns contours of blobs.
def blobbify(img, num_of_labels, kern_size = 3, dilation_rate = 10):
prep_img, contours, hierarchy = prep( img.copy(), kern_size ) # dilate img and check current contour count.
while len(contours) > num_of_labels:
kern_size += dilation_rate # add dilation_rate to kern_size to increase the blob. Remember kern_size must always be odd.
previous = (prep_img, contours, hierarchy)
processed_img, contours, hierarchy = prep( img.copy(), kern_size ) # dilate img and check current contour count, again.
if len(contours) < num_of_labels:
return (processed_img, contours, hierarchy)
else:
return previous
# finds bounding boxes of all contours
def bounding_box(contours):
bBox = []
for curve in contours:
box = cv2.boundingRect(curve)
bBox.append(box)
return bBox
上述方法生成的框将在标签周围留有空间,如果将框应用于原始图像,这可能包括原始设计的一部分。为避免这种情况,请通过新找到的框制作感兴趣的区域并修剪空白区域。然后将该 roi 的形状保存为您的新框。
也许您无法知道图像中有多少标签。如果是这种情况,那么我建议您使用侵蚀值,直到找到最适合您的情况并获得所需的 blob。
或者您可以尝试在移除设计后在剩余内容上找到轮廓,然后根据边界框之间的距离将它们组合成一个矩形。
找到你的盒子后,只需根据原始图像使用这些盒子即可。
OpenCV 3 中的场景文本检测模块
正如您问题的 cmets 中所述,opencv 3 中已经存在一种场景文本检测(不是文档文本检测)的方法。我知道您没有能力切换版本,但对于那些有相同问题的人并且不限于较旧的 opencv 版本,我决定在最后包含这个。可以通过简单的谷歌搜索找到场景文本检测的文档。
用于文本检测的opencv模块还带有实现tessaract的文本识别,这是一个免费的开源文本识别模块。 tessaract,因此opencv的场景文本识别模块的失败之处在于它没有商业应用程序那么精细,并且使用起来很耗时。从而降低了它的性能,但它可以免费使用,所以如果你也想要文本识别,它是我们最好的而不花钱。
链接:
老实说,我缺乏 opencv 和图像处理方面的经验和专业知识,无法提供详细的方法来实现他们的文本检测模块。与 SWT 算法相同。过去几个月我才开始研究这些东西,但随着我了解更多,我会编辑这个答案。