有没有办法用PySpark版本1.6.2而不是2.0.0来替换这行代码?问题是spark1.6.2中不存在{
cfg = SparkConf().setAppName('s')
spark = SparkSession.builder.enableHiveSupport().config(conf=cfg).getOrCreate()
df = spark.createDataFrame([], schema=StructType([StructField('id', StringType()),
StructField('pk', StringType()),
StructField('le', StringType()),
StructField('or', StringType())]))
对于Spark的旧版本(早于2.0的版本),可以使用},请参阅相关的documentation。设置环境的小示例:
HiveContext
而不是{在此之后,您可以使用
sqlContext
变量以与之前相同的方式创建数据帧。在相关问题 更多 >
编程相关推荐