擅长:python、mysql、java
<p>花费的时间似乎是<code>n**2.8</code>。可以通过减少数据点的数量来提高速度。在</p>
<p>如果您将数据的采样减少到1000行,您可以在几秒钟内完成计算。然后可以用不同的随机样本重复分析。在</p>
<p>为了合并结果,您有几个选项:</p>
<ul>
<li>就像统计学中的互相关一样,用残差范数的倒数来加权它们(计算速度快,因为它已经在输出中了)。在</li>
<li>测量完整数据集的实际残差(不到3秒),并:
<ul>
<li>保留最好的。在</li>
<li>用实际距离的倒数来衡量它们的重量。在</li>
</ul></li>
</ul>
<p>最好的选择取决于您需要多大的准确性,以及数据的性质。如果你只需要一个中等噪声的粗略估计,一次下采样就可以了。请记住,你已经严重缺乏决心,所以你的解决方案将退化。在</p>