广州seo全网营销,seo的名词解释,百度关键词优化怎么做,贵阳建设工程信息网站Spark是独立的#xff0c;所以集群安装的时候#xff0c;不像hive#xff0c;hbase等需要先安装hadoop#xff0c;除非文件保存在hadoop上#xff0c;才需要安装hadoop集群。
如果虚拟机安装#xff0c;点击阅读推荐配置
前提环境#xff1a;
1、安装了JDK1.7及以上版…Spark是独立的所以集群安装的时候不像hivehbase等需要先安装hadoop除非文件保存在hadoop上才需要安装hadoop集群。
如果虚拟机安装点击阅读推荐配置
前提环境
1、安装了JDK1.7及以上版本的Linux机器
2、各台机器间SSH免密码登录已配置。
3、各台Linux防火墙已关闭时间已同步。 SSH配置教程
时间同步教程 步骤
1、下载spark安装包
2、解压
3、修改spark-env.sh
4、修改 slaves
5、scp -r 到其他节点
6、start-all.sh 启动
7、浏览器查看 每步详情 1、下载spark安装包
http://spark.apache.org/downloads.html
选择的版本的时候注意安装的hadoop版本选择相应的版本 2、解压
略 3、修改spark-env.sh
在后面加入
export JAVA_HOME/jdk1.8.0_73 export SPARK_MASTER_HOSTnbdo1 export SPARK_MASTER_PORT7077 如果安装了hadoop可以配置下
export HADOOP_CONF_DIR/home/hadoop/hadoop/etc/hadoop export SPARK_WORKER_CORES3 //每个Worker使用的CPU核数 export SPARK_WORKER_INSTANCES2 //每个Slave中启动几个Worker实例 export SPARK_WORKER_MEMORY1G //每个Worker使用多大的内存 export SPARK_WORKER_WEBUI_PORT8081 //Worker的WebUI端口号 export SPARK_EXECUTOR_CORES1 //每个Executor使用使用的核数 export SPARK_EXECUTOR_MEMORY1G //每个Executor使用的内存
每台服务器上启动2个worker实例每个worker用3个cpu核心1GB内存
worker实例数机器数*每台机器上的worker实例数 4、修改 slaves
nbdo2
nbdo3
我有三台测试机nbdo1,nbdo2,nbdo3。
nbdo1作为了master了 5、scp -r 到其他节点
略 6、start-all.sh 启动
在master节点上进入spark安装目录的sbin下
[hadoopnbdo1 sbin]$ ./start-all.sh
不要直接输入 start-all.shhadoop启动脚本也是start-all.sh 7、浏览器查看
ip地址或域名:8080端口访问
http://nbdo1:8080/