很抱歉,这个问题的标题很糟糕,但这是我的设想
True
。这在步骤5中很有用sc._jsc.hadoopConfiguration().get("fs.s3n.awsAccessKeyId") == None sc._jsc.hadoopConfiguration().get("fs.s3n.awsSecretAccessKey") == None
sc._jsc.hadoopConfiguration().set("fs.s3n.awsAccessKeyId", AWS_ACCESS_KEY_ID) sc._jsc.hadoopConfiguration().set("fs.s3n.awsSecretAccessKey", AWS_SECRET_ACCESS_KEY)
org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 1844.0 failed 4 times, most recent failure: Lost task 0.3 in stage 1844.0 (TID 63816, 10.0.63.188, executor 3): com.amazonaws.services.s3.model.AmazonS3Exception: Forbidden (Service: Amazon S3; Status Code: 403; Error Code: 403 Forbidden; Request ID: 3219CD268DEE5F53; S3 Extended Request ID: rZ5/zi2B+AsGuKT0iW1ATUyh9xw7YAt9RULoE33WxTaHWUWqHzi1+0sRMumxnnNgTvNED30Nj4o=), S3 Extended Request ID: rZ5/zi2B+AsGuKT0iW1ATUyh9xw7YAt9RULoE33WxTaHWUWqHzi1+0sRMumxnnNgTvNED30Nj4o=
现在我的问题是为什么我不能再次读取数据。如何将redshift的S3配置重置为在将模型保存到S3之后显式设置之前的方式。你知道吗
我也不明白的是,最初的aws值是None,当我自己尝试用None重置时,它会返回一个错误
The value of property fs.s3n.awsAccessKeyId must not be null
现在,我正在考虑解决办法,我将保存在databricks本地模型,然后将其压缩并上传到S3,但这仍然只是一个补丁。我想以适当的方式做这件事。你知道吗
很抱歉对代码使用引号框,因为出于某种原因,它不适用于多行代码
提前谢谢!!!你知道吗
重新导入设置红移连接的笔记本。或者找到它的位置并复制代码。你知道吗
如果您没有权限修改要导入的笔记本,那么我猜您没有权限在集群上设置角色。如果使用角色,则不需要aws密钥。你知道吗
相关问题 更多 >
编程相关推荐