作为spark和python的新手,尝试一些基本的东西来打印员工数据的count和max
from pyspark.sql import Row
from pyspark.sql import SparkSession
from pyspark.sql import SQLContext
import pyspark.sql.functions as psf
spark = SparkSession \
.builder \
.appName("Hello") \
.config("World") \
.getOrCreate()
sc = spark.sparkContext
sqlContext = SQLContext(sc)
df = spark.createDataFrame(
sc.textFile("employee.txt").map(lambda l: l.split('::')),
["employeeid","deptid","salary"]
)
df.registerTempTable("df")
mostEmpDept = sqlContext.sql("""select deptid, cntDept from (
select deptid, count(*) as cntDept, max(count(*)) over () as maxcnt
from df
group by deptid) as tmp
where tmp.cntDept = tmp.maxcnt""")
mostEmpDept.show()
上面的代码给出了雇员人数最多的deptid,如下所示
+-------+--------+
|deptid |cntDept |
+-------+--------+
| 10 | 7|
+-------+--------+
现在,我有另一个包含所有deptid及其名称的文件,如何将这个结果映射到另一个文件并打印deptid 10名称?另一个文件如下所示
10::Marketing
20::Finance
30::HumanResource
40::HouseKeeping
请在下面使用:
如果要保存,请使用
相关问题 更多 >
编程相关推荐