为啥Spark 的Broadcast要用单例模式
可以看到代码里首先会执行job生成代码
每个输出流都会生成一个job,输出流就类似于foreachrdd,print这些。其实内部都是ForEachDStream。所以生成的是一个job集合。 然后就会将job集合提交到线程池里去执行,这些都是在driver端完成的哦。
其实就是遍历生成的job集合,然后提交到线程池jobExecutor内部执行。这个也是在driver端的哦。 jobExecutor就是一个固定线程数的线程池,默认是1个线程。
需要的话可以配置spark.streaming.concurrentJobs来同时提交执行多个job。 那么这种情况下,job就可以并行执行了吗? 显然不是的! 还要修改一下调度模式为Fair,详细的配置可以参考: http://spark.apache.org/docs/2.3.3/job-scheduling.html#scheduling-within-an-application 简单的均分的话只需要
然后,同时运行的job就会均分所有executor提供的资源。 这就是整个job生成的整个过程了哦。 因为Spark Streaming的任务存在Fair模式下并发的情况,所以需要在使用单例模式生成broadcast的时候要注意声明同步。
(编辑:汕尾站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
- Epic Games推出Unreal引擎全新4.25版本
- VR多人游戏《VR Giants》即将启动Kickstarter众筹
- 平潭海洋公布2019年第四季度和年度财务业绩
- 真正的大数据问题以及为什么只有机器学习才能解决它
- Unity引擎2019.3版本升级,HDRP功能实现与VR兼容
- QuestMobile 报告:双 11 DAU 手淘领先,拼多多破 2 亿
- 全新睿智通iCONNECT,SD-WAN 3.0架构,震撼上市
- AutoCAD2020如何关闭硬件加速 禁用硬件加速教程
- 《Dreadhalls》Quest版本销量超过Oculus Go、PSVR和PC VR版
- AI助力智慧城市升级,华为“城市智能体”让城市具有生命力