我有一个py spark数据帧,有8列。在
数据帧有列:
Columns L , W , PN , PV , CP , CH , RP , RH
Row1 L1, W1, PN1, PV1, CP1, CH1, RP1, RH1
Row2 L2, W2, PN2, PV2, CP2, CH2, RP2, RH2
列L和W构成数据集的键。在
我要将数据集透视到窗体:
^{pr2}$
基本上,我必须用3个不同的统计数据透视3个diff列(例如:Min、max、Mean)。在
在pyspark中透视这个数据集的最佳方法是什么?在
谢谢,
已保存
Tags:
一次只能以一列为中心,但可以按多个列分组并计算多个聚合: 在
让我们从一个示例数据帧开始:
让我们按列
L
分组,以列W
为轴心,计算所有其他列的min, max, mean
:如果有三个聚合列,您可以将其中的2个放入
groupBy
:相关问题 更多 >
编程相关推荐