我正在处理一些非常大的数组。当然,我正在处理的一个问题是RAM不足,但即使在这之前,我的代码运行速度很慢,因此,即使我有无限的RAM,它仍然需要花费太长的时间。我将给出一点代码来展示我的努力:
#samplez is a 3 million element 1-D array
#zfit is a 10,000 x 500 2-D array
b = np.arange((len(zfit))
for x in samplez:
a = x-zfit
mask = np.ma.masked_array(a)
mask[a <= 0] = np.ma.masked
index = mask.argmin(axis=1)
# These past 4 lines give me an index array of the smallest positive number
# in x - zift
d = zfit[b,index]
e = zfit[b,index+1]
f = (x-d)/(e-d)
# f is the calculation I am after
if x == samplez[0]:
g = f
index_stack = index
else:
g = np.vstack((g,f))
index_stack = np.vstack((index_stack,index))
在进一步的计算中,我需要使用g和index_堆栈,它们都是300万x 10000个二维数组。这个循环的每次迭代几乎需要1秒,总共需要300万秒,这太长了。在
我能做些什么使这个计算更快些吗?我一直在想,如果没有这个for循环,我能想到的唯一方法是制作300万份zfit副本,这是不可行的。在
有没有什么方法可以让我不用把所有的东西都保存在RAM中来处理这些数组吗?我是一个初学者,我所搜索到的一切都不是无关紧要的,就是我无法理解的东西。提前谢谢。在
最好知道最小的正数永远不会出现在行的末尾。在
在
samplez
中有100万个唯一值,但在zfit
中,每行最多只能有500个唯一值。整个zfit
可以有多达5000万个唯一值。如果能大大减少“求最小正数”>;“采样中每个元素”的计算次数,则可以大大加快算法的速度。做所有的5e13比较可能是一个过度的杀戮和仔细的计划将能够消除很大一部分。这很大程度上取决于你的实际基础数学。在在不知道的情况下,还有一些小事可以做。1,没有太多可能的
(e-d)
,因此可以从循环中取出。2,循环可以通过map
消除。这两个小修正,在我的机器上,结果是大约22%的速度。在接下来:
^{pr2}$masked_array
可以完全避免(这应该会带来显著的改进)。samplez
也需要排序。在所以,这是另一个50%的加速。在
避免了}来代替可以节省大量RAM的默认
masked_array
,这节省了一些RAM。想不出其他方法来减少RAM的使用。可能需要分部分处理samplez
。而且,依赖于数据和所需的精度,如果您可以使用float16
或{float64
。在相关问题 更多 >
编程相关推荐