A.構(gòu)建Spark Application的運(yùn)行環(huán)境,啟動SparkContext
B.SparkContext向資源管理器(Standalone、Mesos、Yarn)申請運(yùn)行Executor資源SparkContext啟動應(yīng)用程序DAG調(diào)度、Stage劃分,TaskSet生成
C.Task Scheduler調(diào)度Taskset,將Task發(fā)放給Executor運(yùn)行
第1題
A.運(yùn)行速度快
B.容易使用,簡潔的API設(shè)計(jì)有助于用戶輕松構(gòu)建并行程序
C.通用性,Spark提供了完整而強(qiáng)大的技術(shù)棧
D.運(yùn)行模式多樣
第2題
A.SparkContext 負(fù)責(zé)計(jì)算 RDD 之間依賴關(guān)系,構(gòu)建 DAG 。
B.DAGScheduler 負(fù)責(zé)將 DAG 圖分解成多個 Stage ,每個 Stage 中包含多個 Task 。
C.TaskScheduler 負(fù)責(zé)將每個 Task 分發(fā)給各個 Worker 節(jié)點(diǎn)。
D.Worker 節(jié)點(diǎn)上 Executor 執(zhí)行相應(yīng) Task 。
第3題
A.運(yùn)行速度快
B.容易使用,簡潔的API設(shè)計(jì)有助于用戶輕松構(gòu)建并行程序
C.通用性,Spark提供了完整而強(qiáng)大的技術(shù)棧
D.運(yùn)行模式多樣
第4題
第5題
A.Spark能夠與Hadoop生態(tài)系統(tǒng)完美融合
B.幾乎所有MapReduce程序都可以改造為Spark程序
C.對一些特定類型的應(yīng)用(例如迭代型算法),Hadoop的性能超出Spark100倍以上
D.Spark能夠?qū)?yīng)用在磁盤上的運(yùn)行速度提升10倍
第6題
A.基于Spark、Kafka、Druid、HDFS等大數(shù)據(jù)分析平臺構(gòu)建
B.對關(guān)聯(lián)、認(rèn)證、DHCP等13步全接入過程協(xié)議回放
C.支持多廠商組網(wǎng)下的網(wǎng)絡(luò)性能分析并可視化呈現(xiàn)
D.基于http2+ProtoBuff協(xié)議的Telemetry 秒級采集
第7題
A.對關(guān)聯(lián)、認(rèn)證、DHCP等13步全接入過程協(xié)議回放
B.支持多廠商組網(wǎng)下的網(wǎng)絡(luò)性能分析并可視化呈現(xiàn)
C.基于http2+ProtoBuff協(xié)議的Telemetry秒級采集
D.基于Spark、KafkaDruidHDFS等大數(shù)據(jù)分析平臺構(gòu)建
第8題
A.基于Spark、Kafka、Druid、HDFS等大數(shù)據(jù)分析平臺構(gòu)建
B.支持多廠商組網(wǎng)下的網(wǎng)絡(luò)性能分析并可視化呈現(xiàn)
C.對關(guān)聯(lián)、認(rèn)證、DHCP等13步全接入過程協(xié)議回放
D.基于http2+ProtoBuff協(xié)議的Telemetry秒級采集
第9題
A.Spark能夠與Hadoop生態(tài)系統(tǒng)完美融合
B.幾乎所有Map Reduce程序都可以改造為Spark程序
C.對一些特定類型的應(yīng)用(例如迭代型算法),Hadoop的性能超出Spark100倍以上
D.Spark能夠?qū)?yīng)用在磁盤上的運(yùn)行速度提升10倍
第10題
第11題
A.對關(guān)聯(lián)、認(rèn)證、DHCP等13步全接入過程協(xié)議回放
B.支持多廠商組網(wǎng)下的網(wǎng)絡(luò)性能分析并可視化呈現(xiàn)
C.基于http2+ProtoBuff協(xié)議的Telemetry秒級釆集
D.基于Spark、Kafka、Druid、HDFS等大數(shù)據(jù)分析平臺構(gòu)建
為了保護(hù)您的賬號安全,請?jiān)凇?span>上學(xué)吧”公眾號進(jìn)行驗(yàn)證,點(diǎn)擊“官網(wǎng)服務(wù)”-“賬號驗(yàn)證”后輸入驗(yàn)證碼“”完成驗(yàn)證,驗(yàn)證成功后方可繼續(xù)查看答案!