当前位置: 首页 > news >正文

广州哪里做公司网站号4成都网站建设

广州哪里做公司网站号,4成都网站建设,企业邮箱官网登录,网站初期建设阶段主要工作内容文章目录 一. 新增节点1.配置、安装1.1. 所有节点配置新节点主机映射1.2. 上传安装包1.3. 配置环境变量1.4. 配置workers1.5. 清理之前集群的数据目录#xff08;如有#xff09; 2. 新增节点启动3. 平衡DataNode节点 二. 删除节点1. namenode节点操作1.1. 添加excludes文件1… 文章目录 一. 新增节点1.配置、安装1.1. 所有节点配置新节点主机映射1.2. 上传安装包1.3. 配置环境变量1.4. 配置workers1.5. 清理之前集群的数据目录如有 2. 新增节点启动3. 平衡DataNode节点 二. 删除节点1. namenode节点操作1.1. 添加excludes文件1.2. 刷新节点 2. 关闭datanode节点非必须 三. 重新加入删除的节点 一. 新增节点 1.配置、安装 1.1. 所有节点配置新节点主机映射 在namenode节点 vi /etc/hosts 增加 新增节点IP node3 # 复制到其他DataNode节点 scp /etc/hosts node1:/etc/hosts scp /etc/hosts node2:/etc/hosts scp /etc/hosts node3:/etc/hosts1.2. 上传安装包 在namenode节点通过scp上传安装包 scp -r /home/user/hadoop/hadoop/etc/hadoop/ rootnode3:/home/user/hadoop/hadoop/etc/1.3. 配置环境变量 在新节点 export HADOOP_HOME/home/user/hadoop/hadoop-3.0.3 export HADOOP_CONF_DIR/home/user/hadoop/hadoop-3.0.3/etc/hadoop export PATH$PATH:$HADOOP_HOME/bin1.4. 配置workers 在namenode节点下的/home/taiyi/hadoop/hadoop/etc/hadoop/workers 填写新增节点主机名 vi workersnode1 node2 node3发送到各节点 scp /home/user/hadoop/hadoop-3.0.3/etc/hadoop/workers rootnode3:/home/user/hadoop/hadoop-3.0.3/etc/hadoop scp /home/user/hadoop/hadoop-3.0.3/etc/hadoop/workers rootnode3:/home/user/hadoop/hadoop-3.0.3/etc/hadoop1.5. 清理之前集群的数据目录如有 如果不清理可能 会出现clusterid不一致的报错新节点与被复制节点的datanodeUuid一样(位置:…/current/VERSION文件)这样会导致被复制节点和新节点的冲突。 具体数据目录位置在hdfs-site.xml文件中查看。 propertynamedfs.datanode.data.dir/namevalue/opt/data/hdfs/data,/opt/data02/hdfs/data/valuedescriptionIf necessary, use these files to control the list of allowable datanodes.不允许加入的datanode/description/propertypropertynamedfs.namenode.name.dir/namevalue/opt/data/hdfs/namenode,/opt/data02/hdfs/namenode/valuedescriptionIf this is a comma-delimited list of directories then the name table is replicated in all of thedirectories, for redundancy.Path on the local filesystem where the NameNode stores the namespace and transactions logs persistently.用于保存Namenode的namespace和事务日志的路径/description/property2. 新增节点启动 对于新添加的DataNode、nodemanger在新节点启动 hdfs --daemon start datanode yarn --daemon start nodemanager在namenode节点刷新新启动的节点 hdfs dfsadmin -refreshNodes也可在页面查看namenodeip:9870 查看集群情况 hdfs dfsadmin -reportConfigured Capacity: 24593821065216 (22.37 TB) Present Capacity: 23916454670336 (21.75 TB) DFS Remaining: 23885509402624 (21.72 TB) DFS Used: 30945267712 (28.82 GB) DFS Used%: 0.13% Replicated Blocks:Under replicated blocks: 54Blocks with corrupt replicas: 0Missing blocks: 0Missing blocks (with replication factor 1): 0Pending deletion blocks: 0 Erasure Coded Block Groups:Low redundancy block groups: 0Block groups with corrupt internal blocks: 0Missing block groups: 0Pending deletion blocks: 0------------------------------------------------- Live datanodes (3): yarn节点 yarn node -list 2023-08-29 18:20:42,615 INFO client.RMProxy: Connecting to ResourceManager at /node1:8832 Total Nodes:3Node-Id Node-State Node-Http-Address Number-of-Running-Containers node3.xxxxxxxxxxxxxxxxxxxxxxx.net:34003 RUNNING node3.xxxxxxxxxxxxxxxxxxxxxxx.net:8042 0 node1xxxxxxxxxxxxxxxxxxxxxxxx.net:45637 RUNNING node1.xxxxxxxxxxxxxxxxxxxxxxxxxx.:8042 0 node2.xxxxxxxxxxxxxxxxxxxxxxxxxxx:39647 RUNNING node2.xxxxxxxxxxxxxxxxxxxxxxxxxxxx:8042 0看到之前的两个节点现在是3个了。 3. 平衡DataNode节点 在namenode节点执行 #对hdfs负载设置均衡因为默认的数据传输带宽比较低可以设置为64M hdfs dfsadmin -setBalancerBandwidth 67108864 #默认balancer的threshold为10%即各个节点与集群总的存储使用率相差不超过10%我们可将其设置为5% start-balancer.sh -threshold 5注意 1如果不balance那么cluster会把新的数据都存放在新的node上这样会降低mapred的工作效率 2设置平衡阈值默认是10%值越低各节点越平衡但消耗时间也更长 3设置balance的带宽默认只有1M/s propertynamedfs.balance.bandwidthPerSec/namevalue1048576/valuedescriptionSpecifies the maximum amount of bandwidth that each datanodecan utilize for the balancing purpose in term ofthe number of bytes per second./description /property二. 删除节点 禁止操作 在worker节点通过hdfs --daemon stop datanode 命令关掉datanode这会使hdfs中出现missing block。 1. namenode节点操作 1.1. 添加excludes文件 在namenode节点修改hdfs-site.xml文件 property!--dfs.hosts.exclude定义的文件内容为,每个需要下线的机器一行一个--namedfs.hosts.exclude/namevaluexxx/excludes/value /propertynamenode上创建并修改excludes文件添加需要删除节点的IP 1.2. 刷新节点 nanenode上刷新节点配置情况 hadoop dfsadmin -refreshNodes此时在Web UI上就可以看到该节点变为Decommissioning状态过一会就变为Dead了。 也可以通过如下命令查看 hadoop dfsadmin -report2. 关闭datanode节点非必须 在datanode节点执行: hdfs --daemon stop datanode三. 重新加入删除的节点 1.在namenode的excludes文件中删除相应节点IP 2.在datanodenode节点上重启datanode进程hadoop-daemon.sh start datanode 3.在namenode上刷新节点配置情况hadoop dfsadmin -refreshNodes yarn的删除节点操作类似在yarn-site.xml配置下 yarn.resourcemanager.nodes.exclude-path 参考 https://www.cnblogs.com/xinfang520/p/10131756.html https://www.tutorialspoint.com/hadoop/hadoop_multi_node_cluster.htm
http://www.yutouwan.com/news/243893/

相关文章:

  • 苏州公司网站建设电话网站怎么做快推广方案
  • 下载网站后怎么做的做钓鱼网站软件
  • 搭建网站的主要风险页面设计成上下两栏
  • 用自己主机做网站山东网站制作
  • 漂流瓶做任务网站软件商店app
  • 做网站加模块做的好的装修公司网站
  • 深圳品牌网站建设公司排名百度seo
  • 网站开发需要干什么美客多电商平台入驻链接
  • 新网站百度多久收录软件高端开发
  • 织梦57网站的友情链接怎么做印象笔记同步wordpress
  • 网站开发一次性费用网站建设与数据库管理
  • artisteer 做的网站青岛设计优化公司
  • 上海网站建设yuue广告设计公司宁波
  • 网盘可以做网站空间吗Wordpress写文章贴代码
  • 基本的网站开发技术深圳工业产品设计公司
  • 用php建网站工业产品设计流程
  • 如何在自己电脑上建网站为什么wordpress模板
  • 学做室内效果图的网站吉林省建设信息网工程招投标
  • 珠海中企网站建设公司wordpress 网站 图标
  • 怎么判断网站建设年龄站酷网电脑版
  • 宁乡电商网站建设报价python在线编程软件
  • wordpress有哪些网站图片墙网站代码
  • 网站开发流程可规划为哪三个阶段出口网站制作
  • 网站优缺点分析网页制作收入
  • 广东网站推广公司一个域名多个网站
  • 农业信息中心网站建设公众号微信商城
  • 网页设计介绍北京网站网站建设6135678
  • 重庆网站维护制作wordpress只允许vip可以推广
  • 绵阳网站建设报价网站空间ip是一个域名
  • 净化科技网站建设毕业设计网站开发的中期报告