假设我有两个numpy数组,A
的形状(d, f)
和形状(d,)
的{
I = np.array([0, 0, 1, 0, 2, 1])
A = np.arange(12).reshape(6, 2)
我正在寻找一种快速的方法来进行缩减,尤其是sum
、mean
和{A[I == i, :]
;一个慢的版本应该是
在这种情况下
results = [[ 2.66666667, 3.66666667],
[ 7. , 8. ],
[ 8. , 9. ]])
编辑:我根据Divakar的回答和之前海报(已删除)基于pandas
的答案进行了一些计时。在
定时代码:
from __future__ import division, print_function
import numpy as np, pandas as pd
from time import time
np.random.seed(0)
d = 500000
f = 500
n = 500
I = np.hstack((np.arange(n), np.random.randint(n, size=(d - n,))))
np.random.shuffle(I)
A = np.random.rand(d, f)
def reduce_naive(A, I, op="avg"):
target_dtype = (np.float if op=="avg" else A.dtype)
results = np.zeros((I.max() + 1, A.shape[1]), dtype=target_dtype)
npop = {"avg": np.mean, "sum": np.sum, "max": np.max}.get(op)
for i in np.unique(I):
results[i, :] = npop(A[I == i, :], axis=0)
return results
def reduce_reduceat(A, I, op="avg"):
sidx = I.argsort()
sI = I[sidx]
sortedA = A[sidx]
idx = np.r_[ 0, np.flatnonzero(sI[1:] != sI[:-1])+1 ]
if op == "max":
return np.maximum.reduceat(sortedA, idx, axis=0)
sums = np.add.reduceat(sortedA, idx, axis=0)
if op == "sum":
return sums
if op == "avg":
count = np.r_[idx[1:] - idx[:-1], A.shape[0] - idx[-1]]
return sums/count.astype(float)[:,None]
def reduce_bincount(A, I, op="avg"):
ids = (I[:,None] + (I.max()+1)*np.arange(A.shape[1])).ravel()
sums = np.bincount(ids, A.ravel()).reshape(A.shape[1],-1).T
if op == "sum":
return sums
if op == "avg":
return sums/np.bincount(ids).reshape(A.shape[1],-1).T
def reduce_pandas(A, I, op="avg"):
group = pd.concat([pd.DataFrame(A), pd.DataFrame(I, columns=("i",))
], axis=1
).groupby('i')
if op == "sum":
return group.sum().values
if op == "avg":
return group.mean().values
if op == "max":
return group.max().values
def reduce_hybrid(A, I, op="avg"):
sidx = I.argsort()
sI = I[sidx]
sortedA = A[sidx]
idx = np.r_[ 0, np.flatnonzero(sI[1:] != sI[:-1])+1 ]
unq_sI = sI[idx]
m = I.max()+1
N = A.shape[1]
target_dtype = (np.float if op=="avg" else A.dtype)
out = np.zeros((m,N),dtype=target_dtype)
ss_idx = np.r_[idx,A.shape[0]]
npop = {"avg": np.mean, "sum": np.sum, "max": np.max}.get(op)
for i in range(len(idx)):
out[unq_sI[i]] = npop(sortedA[ss_idx[i]:ss_idx[i+1]], axis=0)
return out
for op in ("sum", "avg", "max"):
for name, method in (("naive ", reduce_naive),
("reduceat", reduce_reduceat),
("pandas ", reduce_pandas),
("bincount", reduce_bincount),
("hybrid ", reduce_hybrid)
("numba ", reduce_numba)
):
if op == "max" and name == "bincount":
continue
# if name is not "naive":
# assert np.allclose(method(A, I, op), reduce_naive(A, I, op))
times = []
for tries in range(3):
time0 = time(); method(A, I, op)
times.append(time() - time0);
print(name, op, "{:.2f}".format(np.min(times)))
print()
计时:
naive sum 1.10
reduceat sum 4.62
pandas sum 5.29
bincount sum 1.54
hybrid sum 0.62
numba sum 0.31
naive avg 1.12
reduceat avg 4.45
pandas avg 5.23
bincount avg 2.43
hybrid avg 0.61
numba avg 0.33
naive max 1.19
reduceat max 3.18
pandas max 5.24
hybrid max 0.72
numba max 0.34
(我选择了d
和n
作为我的用例的典型值-我在答案中添加了numba版本的代码)。在
使用python/numpy jit编译器Numba我能够通过即时编译直观的线性算法获得更短的时间:
在基准测试问题上,这些方法在~0.32s内完成,大约是纯numpy排序方法的一半时间。在
另一个可用于此目的的工具是无缓冲
add.at
:(它的结构非常接近
^{pr2}$numba
reducenb_avg
)对于这个小问题,与其他问题相比,它测试得很好,但扩展性不好(从3倍快到12倍慢)。在
方法1:使用NumPy ufunc reduceat
我们有^{} 来进行这三个约化操作,幸运的是,我们还有{a2}来执行这些限制在轴上的特定间隔的缩减。所以,使用这些,我们可以像这样计算这三个运算-
因此,如果我们需要所有这些操作,我们可以对
^{pr2}$sorted_array_intervals
的一个实例进行重用,如下-方法1-B:混合版本(排序+切片+减少)
这是一个混合版本,它确实需要
sorted_array_intervals
的帮助来获得排序的数组和间隔变为下一个组的索引,但在最后一个阶段使用切片来求每个间隔的和,并对每个组进行迭代。在我们使用views
时,切片在这里有帮助。在实现应该是这样的-
运行时测试(使用问题中发布的基准测试的设置)
方法2:使用NumPy bincount
这是另一种使用^{} 进行基于bin的求和的方法。所以,有了它,我们可以计算出总和和平均值,也可以避免在这个过程中排序,就像这样-
相关问题 更多 >
编程相关推荐