java使用安装的Spark和maven将Spark Scala程序编译成jar文件
仍在努力熟悉maven,并将源代码编译成jar文件以供spark提交。我知道如何使用IntelliJ来实现这一点,但我想了解它的实际工作原理。我有一个EC2服务器,上面已经安装了所有最新的软件,比如spark和scala,还有SparkPi示例。我现在想用maven编译scala源代码。我愚蠢的问题是:首先,我是否可以使用我安装的软件来构建代码,而不是从maven存储库中检索依赖项,以及如何从基本pom开始。用于添加适当需求的xml模板。我不完全理解maven到底在做什么,我怎样才能测试源代码的编译?
据我所知,我只需要有标准的目录结构src/main/scala
,然后想运行mvn package
。另外,我想用maven而不是sbt进行测试
# 1 楼答案
除了@Krishna, 如果您有
mvn project
,请在pom.xml
上使用mvn clean package
。确保您的pom.xml
中有以下build
以生成fat-jar
。(这是我的案例,我是如何制作罐子的)有关详细信息:link 如果您有
sbt project
,请使用sbt clean assembly
使fat-jar
。为此,您需要以下配置,例如build.sbt
也像
plugin.sbt
有关更多信息,请参见this和this
在此之前,主要目标是在目标文件夹中获得包含所有依赖项的胖jar。使用该jar在集群中运行,如下所示:
这里有
inputRDF/data_all.txt /output
两个参数。同样从工具的角度来看,我在Intellij
中构建IDE# 2 楼答案
请按照以下步骤操作