【发布时间】:2020-01-13 10:26:15
【问题描述】:
我得到了一个 python 代码,它接受两个图像作为输入,并使用 Gabor 过滤器来查找两个图像的 RGB 的相关性并将其保存在一个 csv 文件中。所以我需要使用 GPU 执行程序,因为它需要很多时间和 CPU 利用率。我有一个 GeForce GTX 1050 Ti,并且是一个完全的编程初学者。
我做了一些研究并了解了 CUDA 和 Tensorflow,但我真的不确定如何继续实施它,以及在不更改大部分代码的情况下最好的方法是什么。
#Gabor Filter
def build_filters():
filters = []
#tesing phrase filter - reduce
for ksize in range(9, 19, 5):
for theta in np.arange(45, 225, 45):
for sigma in range(2,6,2):
kern = cv2.getGaborKernel((ksize, ksize), sigma, theta, 5.0, 0.5, 0, ktype=cv2.CV_32F)
kern /= 1.5*kern.sum()
filters.append(kern)
return filters
#Apply filter into the image
def process(images, f):
accum = np.zeros_like(images)
for kern in f:
fimg = cv2.filter2D(images, cv2.CV_8UC3, kern)
np.maximum(accum, fimg, accum)
return accum
完整代码: https://gitlab.com/t.tansuwan/image_diff_kce/blob/master/allPixelNoCrop.py
谢谢!
【问题讨论】:
-
我看过了,但我真的不确定如何修改函数以实现与 CUDA 的并行性。
-
你看过cupy吗?
标签: python pandas numpy opencv matplotlib