当前位置: 首页 > news >正文

月编程做网站wordpress 指定目录页

月编程做网站,wordpress 指定目录页,千锋教育地址,企业关键词优化专业公司Spark RDD分区2G限制 文章目录Spark RDD分区2G限制问题现象解决方法为什么2G限制个人思#xff08;yu#xff09;考#xff08;jian#xff09;问题现象 遇到这个问题时#xff0c;spark日志会报如下的日志 片段1#xff1a; 15/04/16 14:13:03 WARN scheduler.TaskSe…Spark RDD分区2G限制 文章目录Spark RDD分区2G限制问题现象解决方法为什么2G限制个人思yu考jian问题现象 遇到这个问题时spark日志会报如下的日志 片段1 15/04/16 14:13:03 WARN scheduler.TaskSetManager: Lost task 19.0 in stage 6.0 (TID 120, 10.215.149.47): java.lang.IllegalArgumentException: Size exceeds Integer.MAX_VALUE at sun.nio.ch.FileChannelImpl.map(FileChannelImpl.java:828) at org.apache.spark.storage.DiskStore.getBytes(DiskStore.scala:123) at org.apache.spark.storage.DiskStore.getBytes(DiskStore.scala:132) at org.apache.spark.storage.BlockManager.doGetLocal(BlockManager.scala:517) at org.apache.spark.storage.BlockManager.getLocal(BlockManager.scala:432) at org.apache.spark.storage.BlockManager.get(BlockManager.scala:618) at org.apache.spark.CacheManager.putInBlockManager(CacheManager.scala:146) at org.apache.spark.CacheManager.getOrCompute(CacheManager.scala:70)片段2 15/04/16 14:19:45 INFO scheduler.TaskSetManager: Starting task 20.2 in stage 6.0 (TID 146, 10.196.151.213, PROCESS_LOCAL, 1666 bytes)15/04/16 14:19:45 INFO scheduler.TaskSetManager: Lost task 20.2 in stage 6.0 (TID 146) on executor 10.196.151.213: java.lang.IllegalArgumentException (Size exceeds Integer.MAX_VALUE) [duplicate 1]15/04/16 14:19:45 INFO scheduler.TaskSetManager: Starting task 20.3 in stage 6.0 (TID 147, 10.196.151.213, PROCESS_LOCAL, 1666 bytes)15/04/16 14:19:45 INFO scheduler.TaskSetManager: Lost task 20.3 in stage 6.0 (TID 147) on executor 10.196.151.213: java.lang.IllegalArgumentException (Size exceeds Integer.MAX_VALUE) [duplicate 2]15/04/16 14:19:45 ERROR scheduler.TaskSetManager: Task 20 in stage 6.0 failed 4 times; aborting job15/04/16 14:19:45 INFO cluster.YarnClusterScheduler: Cancelling stage 615/04/16 14:19:45 INFO cluster.YarnClusterScheduler: Stage 6 was cancelled15/04/16 14:19:45 INFO scheduler.DAGScheduler: Job 6 failed: collectAsMap at DecisionTree.scala:653, took 239.760845 s15/04/16 14:19:45 ERROR yarn.ApplicationMaster: User class threw exception: Job aborted due to stage failure: Task 20 in stage 6.0 failed 4 times, most recent failure: Lost task 20.3 in stage 6.0 (TID 147, 10.196.151.213): java.lang.IllegalArgumentException: Size exceeds Integer.MAX_VALUEat sun.nio.ch.FileChannelImpl.map(FileChannelImpl.java:828)异常就是某个partition的数据量超过了Integer.MAX_VALUE2147483647 2GB 解决方法 手动设置RDD的分区数量。当前使用的Spark默认RDD分区是18个后来手动设置为1000个上面这个问题就迎刃而解了。可以在RDD加载后使用RDD.repartition(numPart:Int)函数重新设置分区数量。 为什么2G限制 目前spark社区对这个限制有很多讨tu论caospark官方团队已经注意到了这个问题但是直到1.2版本这个问题还是没有解决。因为牵涉到整个RDD的实现框架所以改进成本相当大! 下面是一些相关的资料有兴趣的读者可以进一步的阅读: 2GB limit in spark for blockscreate LargeByteBuffer abstraction for eliminating 2GB limit on blocksWhy does Spark RDD partition has 2GB limit for HDFS抛异常的java代码:FileChannelImpl.java 个人思yu考jian 这个限制有一定合理性。因为RDD中partition的操作是并发执行的如果partition量过少导致并发数过少会限制计算效率。所以基于这个限制spark应用程序开发者会主动扩大partition数量也就是加大并发量最终提高计算性能。 转载自https://www.cnblogs.com/bourneli/p/4456109.html
http://wiki.neutronadmin.com/news/251463/

相关文章:

  • 微网站建设微网站建设移动网站推广
  • 河池环江网站建设中国铁建门户网登录入口
  • 有没有做专利导航运营的网站中建招聘官网入口
  • 高端品牌网站建设兴田德润在哪儿重庆市建设工程信息
  • 网站设计技术有哪些?wordpress连接pgsql
  • 网站的标题与关键词中美关系最新消息
  • 建设网站的具体步骤是什么百度助手app免费下载
  • 化妆品公司的网站建设的利益分析市场调研报告模板
  • 青海网站seo有哪些做排球比赛视频网站
  • 贵阳花溪建设村镇银行官方网站医院网站建设水平
  • dedecms学校网站模板怎么把文件放到网站的根目录
  • 网站seo怎么填写搜索引擎优化方法包括
  • 什么是优化资源配置福州外包seo公司
  • 科技网站配色方案公司变更地址需要多少钱
  • 单页网站开发实例下载注册号域名后 怎么建设网站
  • 阿里云做网站视频无法播放网站运营阶段
  • 扬州天达建设集团有限公司网站客户为什么需要建站服务
  • 正安县住房和城乡建设局网站wordpress转域名收费
  • 长沙网站定制济南旅游网页设计
  • 网站怎么做seo优化啊wordpress 怎么使用
  • 手机购物网站源码自己制作广告图片软件
  • 网站建设系网页设计跟网站建设的区别
  • 网站网站做代理网站建设 论文
  • 做网站的论坛网站怎样制作 优帮云
  • 郑州商城网站建设重庆城乡建设网站首页
  • 一个工厂做网站有用吗asp网站建设软件
  • 怎么给网站做seo优化德惠网站
  • 广州网站设计成功柚米怎么做才能让网站人气提升
  • 建设银行车贷网站南京哪里可以做网站
  • 怎么新增网站推广windows优化大师有必要安装吗