当前位置: 首页 > news >正文

仪征网站建设公司哪家好网站程序是什么意思

仪征网站建设公司哪家好,网站程序是什么意思,家装设计平台,秀米网站怎么做推文前言 Spark是非常流行的大数据处理引擎#xff0c;数据科学家们使用Spark以及相关生态的大数据套件完成了大量又丰富场景的数据分析与挖掘。Spark目前已经逐渐成为了业界在数据处理领域的行业标准。但是Spark本身的设计更偏向使用静态的资源管理#xff0c;虽然Spark也支持了…前言 Spark是非常流行的大数据处理引擎数据科学家们使用Spark以及相关生态的大数据套件完成了大量又丰富场景的数据分析与挖掘。Spark目前已经逐渐成为了业界在数据处理领域的行业标准。但是Spark本身的设计更偏向使用静态的资源管理虽然Spark也支持了类似Yarn等动态的资源管理器但是这些资源管理并不是面向动态的云基础设施而设计的在速度、成本、效率等领域缺乏解决方案。随着Kubernetes的快速发展数据科学家们开始考虑是否可以用Kubernetes的弹性与面向云原生等特点与Spark进行结合。在Spark 2.3中Resource Manager中添加了Kubernetes原生的支持而本系列我们会给大家介绍如何用更Kubernetes的方式在集群中使用Spark进行数据分析。本系列不需要开发者有丰富的Spark使用经验对着系列的逐渐深入会穿插讲解使用到的Spark特性。 搭建Playground 很多的开发者在接触Hadoop的时候被安装流程的复杂度打消了很多的积极性。为了降低学习的门槛本系列会通过spark-on-k8s-operator作为Playground简化大家的安装流程。spark-on-k8s-operator顾名思义是为了简化Spark操作而开发的operator如果对operator不是很了解的开发者可以先自行搜索了解下理解operator能做什么可以快速帮你掌握spark-on-k8s-operator的要领。 在讲解内部原理前我们先将环境搭建起来通过一个简单的demo跑通整个的运行时环境。 1. 安装spark-on-k8s-operator 官方的文档是通过Helm Chart进行安装的由于很多开发者的环境无法连通google的repo因此此处我们通过标准的yaml进行安装。 ## 下载repo git clone gitgithub.com:AliyunContainerService/spark-on-k8s-operator.git## 安装crd kubectl apply -f manifest/spark-operator-crds.yaml ## 安装operator的服务账号与授权策略 kubectl apply -f manifest/spark-operator-rbac.yaml ## 安装spark任务的服务账号与授权策略 kubectl apply -f manifest/spark-rbac.yaml ## 安装spark-on-k8s-operator kubectl apply -f manifest/spark-operator.yaml 验证安装结果 ​此时在spark-operator的命名空间下的无状态应用下可以看到一个运行中的sparkoperator表名此时组件已经安装成功接下来我们运行一个demo应用来验证组件是否可以正常工作。 2. Demo验证 学习Spark的时候我们运行的第一个任务是官方文档中介绍的圆周率运行的例子。今天我们换一种方式通过Kubernetes的方式再运行一次。 ## 下发spark-pi任务 kubectl apply -f examples/spark-pi.yaml 任务下发成功后可以通过命令行观察任务的状态。 ## 查询任务 kubectl describe sparkapplication spark-pi## 任务结果 Name: spark-pi Namespace: default Labels: none Annotations: kubectl.kubernetes.io/last-applied-configuration:{apiVersion:sparkoperator.k8s.io/v1alpha1,kind:SparkApplication,metadata:{annotations:{},name:spark-pi,namespace:defaul... API Version: sparkoperator.k8s.io/v1alpha1 Kind: SparkApplication Metadata:Creation Timestamp: 2019-01-20T10:47:08ZGeneration: 1Resource Version: 4923532Self Link: /apis/sparkoperator.k8s.io/v1alpha1/namespaces/default/sparkapplications/spark-piUID: bbe7445c-1ca0-11e9-9ad4-062fd7c19a7b Spec:Deps:Driver:Core Limit: 200mCores: 0.1Labels:Version: 2.4.0Memory: 512mService Account: sparkVolume Mounts:Mount Path: /tmpName: test-volumeExecutor:Cores: 1Instances: 1Labels:Version: 2.4.0Memory: 512mVolume Mounts:Mount Path: /tmpName: test-volumeImage: gcr.io/spark-operator/spark:v2.4.0Image Pull Policy: AlwaysMain Application File: local:///opt/spark/examples/jars/spark-examples_2.11-2.4.0.jarMain Class: org.apache.spark.examples.SparkPiMode: clusterRestart Policy:Type: NeverType: ScalaVolumes:Host Path:Path: /tmpType: DirectoryName: test-volume Status:Application State:Error Message:State: COMPLETEDDriver Info:Pod Name: spark-pi-driverWeb UI Port: 31182Web UI Service Name: spark-pi-ui-svcExecution Attempts: 1Executor State:Spark - Pi - 1547981232122 - Exec - 1: COMPLETEDLast Submission Attempt Time: 2019-01-20T10:47:14ZSpark Application Id: spark-application-1547981285779Submission Attempts: 1Termination Time: 2019-01-20T10:48:56Z Events:Type Reason Age From Message---- ------ ---- ---- -------Normal SparkApplicationAdded 55m spark-operator SparkApplication spark-pi was added, Enqueuing it for submissionNormal SparkApplicationSubmitted 55m spark-operator SparkApplication spark-pi was submitted successfullyNormal SparkDriverPending 55m (x2 over 55m) spark-operator Driver spark-pi-driver is pendingNormal SparkExecutorPending 54m (x3 over 54m) spark-operator Executor spark-pi-1547981232122-exec-1 is pendingNormal SparkExecutorRunning 53m (x4 over 54m) spark-operator Executor spark-pi-1547981232122-exec-1 is runningNormal SparkDriverRunning 53m (x12 over 55m) spark-operator Driver spark-pi-driver is runningNormal SparkExecutorCompleted 53m (x2 over 53m) spark-operator Executor spark-pi-1547981232122-exec-1 completed 此时我们发现任务已经执行成功查看这个Pod的日志我们可以到计算最终的结果为Pi is roughly 3.1470557352786765。至此在Kubernetes上已经跑通了第一个Job接下来我们要来详解一下刚才这一波操作到底都做了些什么。 Spark Operator的基础架构浅析 这张图是Spark Operator的流程图在上面的操作中第一个步骤里面实际上是将图中的中心位置蓝色的Spark Operator安装到集群中Spark Opeartor本身即是是一个CRD的Controller也是一个Mutating Admission Webhook的Controller。当我们下发spark-pi模板的时候会转换为一个名叫SparkApplication的CRD对象然后Spark Operator会监听Apiserver并将SparkApplication对象进行解析变成spark-submit的命令并进行提交提交后会生成Driver Pod用简单的方式理解Driver Pod就是一个封装了Spark Jar的镜像。如果是本地任务就直接在Driver Pod中执行如果是集群任务就会通过Driver Pod再生成Exector Pod进行执行。当任务结束后可以通过Driver Pod进行运行日志的查看。此外在任务的执行中Spark Operator还会动态attach一个Spark UI到Driver Pod上希望查看任务状态的开发者可以通过这个UI页面进行任务状态的查看。 最后 在本文中我们讨论了Spark Operator的设计初衷如何快速搭建一个Spark Operator的Playground以及Spark Operator的基本架构与流程。在下一篇文章中我们会深入到Spark Operator的内部为大家讲解其内部的实现原理以及如何与Spark更无缝的集成。 #阿里云开年Hi购季#幸运抽好礼 点此抽奖https://www.aliyun.com/acts/product-section-2019/yq-lottery?utm_contentg_1000042901 原文链接 本文为云栖社区原创内容未经允许不得转载。
http://www.yutouwan.com/news/196677/

相关文章:

  • 在线做头像网站有哪些艺术培训网站模板
  • 手机如何网站青岛正规的网站建设公司
  • 上海opencart网站建设网站开发风险
  • ps做网站72分辨率html个人网页完整代码模板
  • 网站建设费用计入管理费用检测公司宣传册设计样本
  • 西安必途网站建设培训中心杭州医疗器械网站制作
  • 指数 网站权重承德专业做网站
  • 设计公司网站要包含什么信息柯桥网站建设
  • 佛山网站建设78788金华金东区建设局网站
  • 福州网站制作公司名字高校信息化建设网站系统微信
  • 网站建设流程表网站开发 软文
  • 苏州国内网站建设公司连运港网络公司做网站
  • 欧泰国际物流网站wordpress+下载受限
  • 一般做外贸上什么网站好有没有专门做团购的网站
  • 域名后缀html是怎样的网站株洲市
  • 成品网站w灬源码火龙果公司网站设计注意事项
  • 长沙seo网站管理网页设计可以进怎样的公司
  • vs2017 如何做网站农业展示网站模板下载
  • wordpress网站非常慢品牌广告语经典100条
  • 杭州品牌网站建设招标文件范本
  • 北京 外贸网站网站改版汇报
  • 徐州企业自助建站企业如何全面开展品牌工程建设
  • 京美建站官网网站宝 西部数码网站管理助手
  • 重庆医院网站建设thinkphp做的网站怎么预览
  • 网站历史快照网站建设和网络营销区别
  • 重庆网站设计公司网站制作中山品牌网站设计
  • 临沂营销型网站建设公司常见八大职能部门
  • 做网站的开发软件是什么郑州网站高端网站设计
  • 海派虫网站推广软件wordpress模板使用
  • 量子秘密网站怎么做成都最新新闻事件今天