启动代码 spark 当地n。 eclipse 从 spark 安装在远程服务器上
我成立了 eclipse 为了 scala, 创建了一个项目 maven 并写了一项简单的任务来计算单词 spark 在 windows. 现在我的 spark+hadoop 安装在服务器上 linux. 我如何运行我的代码 spark 来自群集 eclipse 在群集中 spark /在群集中 linux/?
任何建议。
任何建议。
没有找到相关结果
已邀请:
4 个回复
郭文康
赞同来自:
我将首先做出很多假设 , 你用什么
, 其次,您基于计算机上的计算机工作 linux , 第三,你有两个的最后一件事
在你的项目中,让我们说
和
, 最后假设您要在程序中配置参数。 因此,在可执行文件中的某个地方必须有这样的东西:
您必须完成的步骤::
使用root致密项目:
向主节点发送作业,这是最有趣的部分。 /支持 , 您的项目中具有以下结构
, 你有一个文件
, 符合编译项目/
请注意,由于我建议该项目有两个或更多类,因此您需要确定要运行的哪个类。 此外,我准备争辩说两种方法
和
非常相似。
君笑尘
赞同来自:
冰洋
赞同来自:
首先:
建造 jar /如果您正在使用 gradle - > fatJar 或者 shadowJar/
其次:
生成时在代码中 SparkConf, 您需要指定主要地址, spark.driver.host 和相对的位置 Jar, 有点:
第三:
只需点击右键并运行您的 IDE. 就这样... !
莫问
赞同来自:
您必须将向导安装为要使用的群集。
我邀请您阅读编程指南 Spark 或者通过介绍性课程来理解这些基本概念。 Spark不是你可以在一夜之间开始工作的工具,需要一些时间。
http://spark.apache.org/docs/l ... spark