当前位置: 首页 > news >正文

小说下载网站哪个好养育成本

小说下载网站哪个好,养育成本,深圳网站建设公司怎么样,一般做外单的有哪些网站目录 简介 安装准备 spark安装 配置文件配置 简介 Spark主要⽤于⼤数据的并⾏计算#xff0c;⽽Hadoop在企业主要⽤于⼤数据的存储#xff08;⽐如HDFS、Hive和HBase 等#xff09;#xff0c;以及资源调度#xff08;Yarn#xff09;。但是也有很多公司也在使⽤MR2进…目录 简介 安装准备 spark安装 配置文件配置 简介 Spark主要⽤于⼤数据的并⾏计算⽽Hadoop在企业主要⽤于⼤数据的存储⽐如HDFS、Hive和HBase 等以及资源调度Yarn。但是也有很多公司也在使⽤MR2进⾏离线计算的开发。Spark Hadoop在当前自建平台技术中是离线计算任务开发的主流组合方式。 数据存储HDFS 资源调度Yarn 数据计算Spark或MapReduce取决于具体的企业需求场景 Spark提供了 Spark Core 、 Spark SQL 、 Spark Streaming 、 Spark MLlib 、 Spark GraphX 和Spark-R等技术组件可以⼀站式地完成⼤数据领域的离线批处理、交互式查询、流式计算、机器学习、图计算和统计等常⻅的任务。 Spark引进了弹性分布式数据集Resilient DistributedDataset, RDD它是分布在一组节点中的只读对象集合。这些对象集合是弹性的如果丢失了一部分对象集合Spark则可以根据父RDD对它们进行计算。另外在对RDD进行转换计算时可以通过CheckPoint方法将数据持久化比如可以持久化到HDFS从而实现容错。 安装准备 linux免密登录 zookeeper安装 hadoop安装 spark安装 通过官网下载安装包 spark-3.5.0-bin-hadoop3.tgz,所有节点同步下载。 wget https://archive.apache.org/dist/spark/spark-3.5.0/spark-3.5.0-bin-hadoop3.tgz然后进行解压清空压缩包设置软连接。 tar -zxf spark-3.5.0-bin-hadoop3.tgz rm -rf spark-3.5.0-bin-hadoop3.tgz ln -s spark-3.5.0-bin-hadoop3/ spark 配置文件配置         在$SPARK_HOME/conf 下压缩包中自带一个标准格式文件将其更名为spark-env.sh便可。 [hadoopvm02 conf]$ cp spark-env.sh.template spark-env.sh [hadoopvm02 conf]$ ll total 44 -rw-r--r-- 1 hadoop hadoop 1105 Sep 9 10:08 fairscheduler.xml.template -rw-r--r-- 1 hadoop hadoop 3350 Sep 9 10:08 log4j2.properties.template -rw-r--r-- 1 hadoop hadoop 9141 Sep 9 10:08 metrics.properties.template -rw-r--r-- 1 hadoop hadoop 1292 Sep 9 10:08 spark-defaults.conf.template -rwxr-xr-x 1 hadoop hadoop 4694 Dec 10 23:02 spark-env.sh -rwxr-xr-x 1 hadoop hadoop 4694 Sep 9 10:08 spark-env.sh.template -rw-r--r-- 1 hadoop hadoop 865 Sep 9 10:08 workers.template         本文使用简易配置作为演示关于其他参数在配置文档中已经写明注释可以根据实际情况进行阅读或选择性配置。本文在该文档下只设置主节点hostname所有节点同步 export SPARK_MASTER_HOSTvm02 export JAVA_HOME/jdk/jdk1.8.0_144/ export JRE_HOME${JAVA_HOME}/jre export CLASSPATH${JAVA_HOME}/lib:${JRE_HOME}/lib export ZOOKEEPER_HOME/home/hadoop/zookeeper #HADOOP_HOME export HADOOP_HOME/home/hadoop/hadoop export HBASE_HOME/home/hadoop/hbase·        设置vm03,vm04为工作节点 [hadoopvm02 conf]$ cp workers.template workers [hadoopvm02 conf]$ vim workers vm03 vm04         配置spark环境变量 vim /etc/profile将一下环境变量配置加入到文件中 export PATH$SPARK_HOME/bin:$PATH export SPARK_HOME/home/hadoop/spark重新加载环境变量 source /etc/profile 启动spark ##进入$SPARK_HOME/sbin 目录下启动spark start-all.sh 注意spark的启动指令的命令的名称和hadoop的启动名称是一样的所以不要设置$SPARK_HOME/sbin 的PATH环境变量 启动完成后可以只看到marster在vm02上vm03,vm04都是work节点。 在所有节点均可以使用以下命令进入spark的交互端口 spark-shell --master local只有当进入到交互命令行时才可以访问对应节点的webui页面默认端口是4040 使用ctrlc便可以退出交互行 spark的安装也是相当方便。读者有什么疑问可以私信咨询。
http://wiki.neutronadmin.com/news/328441/

相关文章:

  • 网站宣传虚假处罚标准网站怎么做内链
  • 网站推广如何引流wordpress 插件 图片上传
  • 做海报有什么借鉴的网站广告设计公司开店策划
  • 网站流媒体播放如何做黑龙江做网站公司
  • 做公司网站计入什么会计科目免费高清视频素材网站
  • 做网站搭建的公司全网热搜榜第一名
  • 东平专业的网站制作松原市住房和城乡建设局网站
  • 网站广告位怎么做优化关键词的方法包括
  • 流量卡网站网站注册信息查询
  • 做网站较好的框架附近编程培训机构
  • 网站界面是什么做的手机之家官方网
  • 广州代理记账网站制作开发及优化是什么
  • 网站建设的市场需求工业互联网平台体系
  • 上传网站再备案网站域名打不开
  • 茶叶怎么做网站销售网站开发需要什么技术
  • 网站建设常用视频格式相城苏州网站建设
  • 物业建设网站客户关系管理理论
  • 网站建设实训心得及收获wordpress 登陆后返回
  • 全球建筑设计网站网站建设宣传图ps
  • 三明北京网站建设北京价格网站建设
  • 电商网站开发的目的和意义百度网站建设中的自由容器
  • 手机 网站 模板医院内外网站建设
  • 临沂网站设计哪家好php网站开发技术 pdf
  • 网站推广方法有几种下载百度语音导航地图安装
  • 网站建设需要啥深圳优化公司公认安高粱seo
  • 太原搭建网站的公司哪家好wap网站生成小程序
  • 二手交易网站建设高校门户网站系统
  • 网站开发建设合同给网站做图
  • wordpress百度推送工具青岛网站seo价格
  • 织梦大气婚纱影楼网站源码saas电商建站系统