我试图用pyspark读取文件(~600Mcsv文件)。在
令人惊讶的是,同样的代码在Scala中也能正常工作。在
我找到了这个问题页 https://issues.apache.org/jira/browse/SPARK-12261但不起作用。在
阅读代码:
import os
from pyspark import SparkContext
from pyspark import SparkConf
datasetDir = 'D:\\Datasets\\movieLens\\ml-latest\\'
ratingFile = 'ratings.csv'
conf = SparkConf().setAppName("movie_recommendation-server").setMaster('local[2]')
sc = SparkContext(conf=conf)
ratingRDD = sc.textFile(os.path.join(datasetDir, ratingFile))
print(ratingRDD.take(1)[0])
我得到了这个错误:
^{pr2}$
目前没有回答
相关问题 更多 >
编程相关推荐