当前位置: 首页 > news >正文

临沂做网站价格手机制作视频软件app有哪些

临沂做网站价格,手机制作视频软件app有哪些,辽阳高端网站建设公司,跨境电商平台有哪些营销方式准备工作 本文简述Flink在Linux中安装步骤#xff0c;和示例程序的运行。需要安装JDK1.8及以上版本。 下载地址#xff1a;下载Flink的二进制包 点进去后#xff0c;选择如下链接#xff1a; 解压flink-1.10.1-bin-scala_2.12.tgz#xff0c;我这里解压到soft目录 [ro…准备工作 本文简述Flink在Linux中安装步骤和示例程序的运行。需要安装JDK1.8及以上版本。 下载地址下载Flink的二进制包 点进去后选择如下链接 解压flink-1.10.1-bin-scala_2.12.tgz我这里解压到soft目录 [roothadoop1 softpackage]# tar -zxvf flink-1.10.1-bin-scala_2.12.tgz -C ../soft/单节点安装 解压后进入Flink的bin目录执行如下脚本即可 [roothadoop1 bin]# ./start-cluster.sh Starting cluster.Starting standalonesession daemon on host hadoop1.Starting taskexecutor daemon on host hadoop1.进入Flink页面看看如果没有修改配置中的端口默认是8081 ## 集群安装 集群安装分为以下几步注意hadoopx都是我配置了/etc/hosts域名的bin 【1】将hadoop1中解压的Flink分发到其他机器上同时我也配置了免密登录SSH也可以手动复制low。 [roothadoop1 soft]# xsync flink-1.10.1执行完后我们就可以在hadoop2和hadoop3中看到flink 【2】选择hadoop1作为master节点然后修改所有机器conf/flink-conf.yaml修改hadoop1分发即可jobmanager.rpc.address密钥以指向您的主节点。您还应该通过设置jobmanager.heap.size和taskmanager.memory.process.size键来定义允许Flink在每个节点上分配的最大主内存量。这些值以MB为单位。如果某些工作节点有更多的主内存要分配给Flink系统则可以通过在这些特定节点上设置 taskmanager.memory.process.size或taskmanager.memory.flink.size在conf / flink-conf.yaml中覆盖默认值。 jobmanager.rpc.address master主机名【3】修改master的conf/slaves提供集群中所有节点的列表这些列表将用作工作节点。我的是hadoop2和hadoop3。类似于HDFS配置编辑文件conf / slaves并输入每个辅助节点的IP /主机名。每个工作节点稍后都将运行TaskManager。 hadoop2 hadoop3以上示例说明了具有三个节点主机名hadoop1作为masterhadoop2和hadoop3作为worker的设置并显示了配置文件的内容。Flink目录必须在同一路径下的每个工作线程上都可用。您可以使用共享的NFS网络文件系统目录也可以将整个Flink目录复制到每个工作节点。特别是 1、每个JobManager的可用内存量jobmanager.heap.size 2、每个TaskManager的可用内存量taskmanager.memory.process.size并查看内存设置指南 3、每台计算机可用的CPU数taskmanager.numberOfTaskSlots 4、集群中的CPU总数parallelism.default 5、临时目录io.tmp.dirs 【4】在master上启动集群第一行以及执行结果。下面的脚本在本地节点上启动JobManager并通过SSH连接到slaves文件中列出的所有辅助节点以在每个节点上启动TaskManager。现在您的 Flink系统已启动并正在运行。现在在本地节点上运行的JobManager将在配置的RPC端口上接受作业。要停止Flink还有一个stop-cluster.sh脚本。 [roothadoop1 flink-1.10.1]# bin/start-cluster.sh Starting cluster.Starting standalonesession daemon on host hadoop1.Starting taskexecutor daemon on host hadoop2.Starting taskexecutor daemon on host hadoop3.【5】Flink界面展示 进入8081端口例如http://hadoop1:8081/ 或者通过jps命令查看服务也可行。 Standalone集群架构展示client客户端提交任务给JobManagerJobManager负责Flink集群计算资源管理并分发任务给TaskManager执行TaskManager定期向JobManager汇报状态。 运行 flink示例程序 批处理示例提交Flink的批处理examples程序也可以在页面中进行提交但是作为一名NB的程序员就使用命令 [roothadoop1 flink-1.10.1]# bin/flink run examples/batch/WordCount.jar执行上面的命令后就会显示如下信息这是Flink提供的examples下的批处理例子程序统计单词个数。 [roothadoop1 flink-1.10.1]# bin/flink run examples/batch/WordCount.jar Executing WordCount example with default input data set. Use --input to specify file input. Printing result to stdout. Use --output to specify output path. Job has been submitted with JobID 99f4c579947a66884ec269ddf5f5b0ed Program execution finished Job with JobID 99f4c579947a66884ec269ddf5f5b0ed has finished. Job Runtime: 795 ms Accumulator Results: - b70332353f355cf0464b0eba21f61075 (java.util.ArrayList) [170 elements](a,5) (action,1) (after,1) (against,1) (all,2) (and,12) (arms,1) (arrows,1) (awry,1) (ay,1) (bare,1) (be,4) (bear,3) (bodkin,1) (bourn,1) (but,1) (by,2) (calamity,1) (cast,1) (coil,1) (come,1) (conscience,1) (consummation,1) (contumely,1) (country,1) (cowards,1) (currents,1) ......得到结果这里统计的是默认的数据集可以通过--input --output指定输入输出。我们可以在页面中查看运行的情况 流处理示例启动nc服务器 [roothadoop1 flink-1.10.1]# nc -lk 9000提交Flink的批处理examples程序 [roothadoop1 flink-1.10.1]# bin/flink run examples/streaming/SocketWindowWordCount.jar --hostname hadoop1 --port 9000这是Flink提供的examples下的流处理例子程序接收socket数据传入统计单词个数。在nc端随意写入单词 [roothadoop1 flink-1.10.1]# nc -lk 9000gs进入slave节点hadoop2hadoop3进入Flink安装目录输入如下命令查看实时数据变化 [roothadoop2 flink-1.10.1]# tail -f log/flink-*-taskexecutor-*.out s : 1: 2 w : 1 d : 1 g : 1 d : 1停止Flink [roothadoop1 flink-1.10.1]# bin/stop-cluster.sh在Flink的web中查看运行的job 将 JobManager / TaskManager 实例添加到集群扩展 您可以使用bin/jobmanager.sh和bin/taskmanager.sh脚本将JobManager和TaskManager实例添加到正在运行的集群中。添加JobManager确保在要启动/停止相应实例的主机上调用这些脚本 [roothadoop1 flink-1.10.1]# bin/jobmanager.sh ((start|start-foreground) [host] [webui-port])|stop|stop-all添加任务管理器 [roothadoop1 flink-1.10.1]# bin/taskmanager.sh start|start-foreground|stop|stop-allYARN模式 在企业中经常需要将Flink集群部署到YARN因为可以使用YARN来管理所有计算资源。而且Spark程序也可以部署到YARN上。CliFrontend是所有job的入口类通过解析传递的参数(jar包mainClass等)读取flink的环境配置信息等封装成PackagedProgram最终通过ClusterClient提交给Flink集群。Flink运行在YARN上提供了两种方式 第一种使用yarn-session模式来快速提交作业到YARN集群。如下在Yarn中初始化一个flink集群开辟指定的资源以后提交任务都向这里提交这个flink集群会常驻在Yarn集群中除非手动停止。共享Dispatcher与ResourceManager共享资源。有大量的小作业适合使用这种方式 YarnSessionClusterEntrypoint是Flink在Yarn上的线程。ApplicationMaster是JobManager。YarnTaskExecutorRunner负责接收subTask并运行是TaskManager。 【1】修改Hadoop的etc/hadoop/yarn-site.xml添加该配置表示内存超过分配值是否将任务杀掉。默认为true。运行Flink程序很容易超过分配的内存。 property nameyarn.nodemanager.vmem-check-enabled/name valuefalse/value /property 【2】 添加环境变量 //查看是否配置HADOOP_CONF_DIR我这里没有配置输出为空 [roothadoop1 hadoop-2.7.2]# echo $HADOOP_CONF_DIR//在系统变量中添加 HADOOP_CONF_DIR [roothadoop1 hadoop-2.7.2]# vim /etc/profile //添加如下内容wq保存退出 export HADOOP_CONF_DIR$HADOOP_HOME/conf/ //刷新 /etc/profile [roothadoop1 hadoop-2.7.2]# source /etc/profile//重新查看是否配置HADOOP_CONF_DIR [roothadoop1 hadoop-2.7.2]# echo $HADOOP_CONF_DIR /opt/module/hadoop-2.7.2/conf/【3】启动HDFS、YARN集群。通过jps查看启动状况。关闭flink的其他集群。 [roothadoop1 hadoop-2.7.2]# sbin/start-all.sh [roothadoop2 hadoop-2.7.2]# jps 10642 NodeManager 11093 Jps 10838 ResourceManager 10535 DataNode 10168 TaskManagerRunner【4】将官方指定Pre-bundled Hadoop 2.7.5包放到flink的lib目录下。使用yarn-session模式提交作业 使用Flink中的yarn-sessionyarn客户端会启动两个必要服务JobManager和TaskManagers 客户端通过yarn-session提交作业 yarn-session会一直启动不停地接收客户端提交的作用。 -n 表示申请2个容器 -s 表示每个容器启动多少个slot -tm 表示每个TaskManager申请800M内存 -nm yarn 的 appName -d detached表示以后台程序方式运行如下表示启动一个yarn session集群每个JM为1GTM的内存是1G。 [roothadoop1 flink-1.10.1]# bin/yarn-session.sh -n 2 -jm 1024m -tm 1024m -d客户端默认是attach模式不会退出 。可以ctrlc退出然后再通过如下命令连上来。或者启动的时候用-d则为detached模式 ./bin/yarn-session.sh -id application_1594027553009_0001(这个id来自下面hadoop集群Yarn上显示为Flink session cluster一致处于运行状态。 点击ApplicationMaster就会进入Flink集群 启动命令行中也会显示如下的JobManager启动的Web界面 JobManager Web Interface: http://hadoop1:34431然后我们可以通过jps来看下当前的进程其中YarnSessionClusterEntrypoint就是我们Yarn Session的分布式集群。 [roothadoop1 flink-1.10.1]# jps 69923 NodeManager 81267 Jps 69394 NameNode 69531 DataNode 80571 FlinkYarnSessionCli 80765 YarnSessionClusterEntrypoint/tmp下生成了一个文件 将Flink应用部署到Flink On Yarn 之 session方式中。 [roothadoop1 flink-1.10.1]# bin/flink run -d examples/streaming/WordCount.jar 查看运行结果 Flink On Yarn之session部署方式集群停止关闭Yarn就会关闭Flink集群。。。 第二种模式使用Per-JOBYarn分离模式与当前客户端无关当客户端提交完任务就结束不用等到Flink应用执行完毕提交作业每次提交都会创建一个新的flink集群任务之间相互独立互不影响方便管理。任务执行完成之后创建的集群也会消失。 直接提交任务给YARN独享Dispatcher与ResourceManager。按需要申请资源。适合执行时间较长的大作业。 AM启动类是YarnJobClusterEntrypoint。YarnTaskExecutorRunner负责接收subTask就是TaskManager。需要打开hadoop和yarn分布式集群。不需要启动flink分布式集群它会自动启动flink分布式集群。 [roothadoop1 flink-1.10.1]# bin/flink run -m yarn-cluster -d ./examples/streaming/WordCount.jar 2020-07-13 03:21:50,479 WARN org.apache.flink.yarn.cli.FlinkYarnSessionCli - The configuration directory (/usr/local/soft/flink-1.10.1/conf) already contains a LOG4J config file.If you want to use logback, then please delete or rename the log configuration file. 2020-07-13 03:21:50,479 WARN org.apache.flink.yarn.cli.FlinkYarnSessionCli - The configuration directory (/usr/local/soft/flink-1.10.1/conf) already contains a LOG4J config file.If you want to use logback, then please delete or rename the log configuration file. Executing WordCount example with default input data set. Use --input to specify file input. Printing result to stdout. Use --output to specify output path. 2020-07-13 03:21:50,707 INFO org.apache.hadoop.yarn.client.RMProxy - Connecting to ResourceManager at hadoop2/192.168.52.129:8032 2020-07-13 03:21:50,791 INFO org.apache.flink.yarn.YarnClusterDescriptor - No path for the flink jar passed. Using the location of class org.apache.flink.yarn.YarnClusterDescriptor to locate the jar 2020-07-13 03:21:50,928 WARN org.apache.flink.yarn.YarnClusterDescriptor - Neither the HADOOP_CONF_DIR nor the YARN_CONF_DIR environment variable is set. The Flink YARN Client needs one of these to be set to properly load the Hadoop configuration for accessing YARN. 2020-07-13 03:21:51,001 INFO org.apache.flink.yarn.YarnClusterDescriptor - Cluster specification: ClusterSpecification{masterMemoryMB1024, taskManagerMemoryMB1728, slotsPerTaskManager1} 2020-07-13 03:21:53,906 INFO org.apache.flink.yarn.YarnClusterDescriptor-ynyarncontainer表示TaskManager的个数 -yquyarnqueue指定yarn的队列 -ysyarnslots每一个TaskManager对应的slot个数 上传成功之后我们可以在Hadoop的图形化界面http://hadoop2:8088/cluster/apps 中看到当前任务的信息
http://www.yutouwan.com/news/70714/

相关文章:

  • 上海网站建设天锐科技目前做的比较好的法律网站有哪些
  • 整形网站建设方案策划书wordpress tag
  • 西安做网站朋朋百度速页建站
  • 网站建设知名网站建设应列支什么科目
  • 网站建设 付款方式南京开发app的公司
  • 做外贸做网站怎样做视频上网站赚钱
  • 无锡市建设招标网站快对作业小程序入口
  • dw做了网站还可以做淘宝详情吗网站建设属于哪类税率
  • 商业网站的相关内容什么是淘宝seo
  • 浙江省网站集约化建设网站建设功能评估表
  • 上传网站到二级域名全国建设工程四库一平台
  • 网站的内容建设seo黑帽技术
  • 辽宁省建设机械协会官方网站临沧市住房和城乡建设网站
  • 昆明网站制作工具手机端网页开发工具
  • 导航门户网站怎么做wordpress营销模板
  • 更新网站的步骤一个域名绑定多个网站
  • 微网站如何做宣传企业名录怎么导出
  • 站内搜索本网站怎么做wordpress计次查询
  • 淘客怎么做网站推广网站开发找哪个
  • 一个ip可以建设多少个网站wordpress页眉文件名
  • 溆浦县建筑公司网站长沙建设教育网站
  • 建设网站中存在的问题wordpress主题去版权
  • 网站建设合同范本大全服务器绑定网站打不开
  • 班级网站建设淘宝网站都是怎么做的吗
  • 装修网站排行榜前十名有哪些教育推广
  • 壹佰网站建设宜昌 网站建设
  • 外贸网站建站案例广州站是哪个站
  • 兖州网站制作移动公司营销网站设计
  • 地图销售网站网站怎么做内链接地址
  • 深圳高水平网站制作企业网站cms 开源