【发布时间】:2014-09-02 20:34:05
【问题描述】:
我正在尝试在 python 中实现 GCC-PHAT。
似乎 GCC-PHAT 和使用 FFT 的正常互相关之间的唯一区别是除以幅度。
这是我的代码:
import numpy as np
import matplotlib.pyplot as plt
from scipy.fftpack import rfft, irfft, fftfreq, fft, ifft
def xcorr_freq(s1,s2):
pad1 = np.zeros(len(s1))
pad2 = np.zeros(len(s2))
s1 = np.hstack([s1,pad1])
s2 = np.hstack([pad2,s2])
f_s1 = fft(s1)
f_s2 = fft(s2)
f_s2c = np.conj(f_s2)
f_s = f_s1 * f_s2c
denom = abs(f_s)
denom[denom < 1e-6] = 1e-6
f_s = f_s / denom # This line is the only difference between GCC-PHAT and normal cross correlation
return np.abs(ifft(f_s))[1:]
我通过注释掉fs = fs / denom 进行了检查,该函数产生的结果与宽带信号的正常互相关相同。
这是一个示例测试代码,显示上面的 GCC-PHAT 代码的性能比正常的互相关差:
LENG = 500
a = np.array(np.random.rand(LENG))
b = np.array(np.random.rand(LENG))
plt.plot(xcorr_freq(a,b))
plt.figure()
plt.plot(np.correlate(s1,s2,'full'))
这是 GCC-PHAT 的结果:
这是正常互相关的结果:
由于 GCC-PHAT 应该为宽带信号提供更好的互相关性能,我知道我的代码有问题。非常感谢任何帮助!
【问题讨论】:
-
scicomp.stackexchange.com 可能会有更多具有相关专业知识的人。如果您在此处转发此问题,请删除此问题。
-
为什么您的测试代码使用
a和b(两个完全随机的信号)作为xcorr_freq的输入,并使用s1和s2(可能是其他一些信号)作为输入到np.correlate,而不是通过对两个实现使用相同的输入来比较苹果和苹果?
标签: python algorithm numpy signal-processing cross-correlation