Pandas语句的PySpark等价物我有个问题。我有一个正在清理的Spark数据框,在熊猫中,我通常会使用: df['cases_since_prev_day'] = df.groupby(['county','state'])['ca ...2024-10-01 已阅读: n次