方法#1
我们可以直接将迭代器作为einsum string notation 使用NumPy 的内置np.einsum。因此,解决方案是使用单个 einsum 调用 -
Tb = np.einsum('ai,aj,ak->ijk',Ab,Ab,Ab)
方法#2
我们可以使用broadcasted elementwise-multiplication 的组合,然后是np.tensordot 或np.matmul 的所有sum-reductions。
因此,再次使用 einsum 或显式维度扩展和 broadcasting 获取广播的元素乘法 -
parte1 = np.einsum('ai,aj->aij',Ab,Ab)
parte1 = (Ab[:,None,:]*Ab[:,:,None]
那么,tensordot 或 np.matmul -
Tb = np.tensordot(parte1,Ab,axes=((0),(0)))
Tb = np.matmul(parte1.T, Ab) # Or parte1.T @ Ab on Python 3.x
因此,第二种方法总共有四种可能的变体。
运行时测试
In [140]: d = 100
...: m = 1000
...: Ab = np.random.randn(m,d)
In [148]: %%timeit # original faster method
...: d = 100
...: Tb = np.zeros((d,d,d))
...: for i,j,k in itertools.combinations_with_replacement(np.arange(100), 3):
...: Abijk = np.sum(Ab[:, i] * Ab[:, j] * Ab[:, k])
...:
...: Tb[i, j, k] = Abijk
...: Tb[i, k, j] = Abijk
...:
...: Tb[j, i, k] = Abijk
...: Tb[j, k, i] = Abijk
...:
...: Tb[k, j, i] = Abijk
...: Tb[k, i, j] = Abijk
1 loop, best of 3: 2.08 s per loop
In [141]: %timeit np.einsum('ai,aj,ak->ijk',Ab,Ab,Ab)
1 loop, best of 3: 3.08 s per loop
In [142]: %timeit np.tensordot(np.einsum('ai,aj->aij',Ab,Ab),Ab,axes=((0),(0)))
...: %timeit np.tensordot(Ab[:,None,:]*Ab[:,:,None],Ab,axes=((0),(0)))
...: %timeit np.matmul(np.einsum('ai,aj->ija',Ab,Ab), Ab)
...: %timeit np.matmul(Ab.T[None,:,:]*Ab.T[:,None,:], Ab)
10 loops, best of 3: 56.8 ms per loop
10 loops, best of 3: 59.2 ms per loop
1 loop, best of 3: 673 ms per loop
1 loop, best of 3: 670 ms per loop
最快的似乎是基于tensordot 的。因此,通过更快的单循环 itertools 方法获得 35x+ 加速。