小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

大數(shù)據(jù)IMF傳奇行動(dòng)絕密課程第12課:HA下的Spark集群工作原理解密

 看風(fēng)景D人 2019-02-24

HA下的Spark集群工作原理解密

Zookeeper中包含的內(nèi)容有哪些:所有的Worker Driver Application
圖12-1 Spark高可用HA架構(gòu)
下載Zookeeper
環(huán)境變量:

export ZOOKEEPER_HOME=

加入PATH
解壓并創(chuàng)建logs/ 和data/

cp conf/zoo_sample.cfg conf/zoo.cfg
vi conf/zoo.cfg
#加入/修改以下內(nèi)容
dataDir=/home/hadoop/zookeeper-3.4.6/data
dataLogDir=/home/hadoop/zookeeper-3.4.6/logs
server.0=Master:2888:3888
server.1=Worker1:2888:3888
server.2=Worker2:2888:3888
cd data/
echo 0 > myid

#拷貝到其他機(jī)器
scp -r zookeeper-3.4.6 hadoop@Worker1:/home/hadoop/
scp -r zookeeper-3.4.6 hadoop@Worker2:/home/hadoop/

#修改Worker1和Worker2的myid

啟動(dòng):

bin/zkServer.sh start

#spark支持zookeeper
cd $SPARK_HOME/conf
vi spark-env.sh
注釋掉#SPARK_MASTER_ID并加入以下內(nèi)容:
SPARK_DAEMON_JAVA_OPT="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.u
rl=Master:2181,Worker1:2181,Worker2:2181 -Dspark.deploy.zookeeper.dir=/spark"

scp $SPARK_HOME/conf/spark-env.sh hadoop@Worker1:$SPARK_HOME/conf/
scp $SPARK_HOME/conf/spark-env.sh hadoop@Worker2:$SPARK_HOME/conf/

#啟動(dòng)Master上面的Spark

#啟動(dòng)Worker1和Worker2的Spark,這時(shí)Worker1和Worker2的jps中有Master進(jìn)程,并且在控制臺(tái)中能看到狀態(tài)為Standby

提交任務(wù)要給三臺(tái)機(jī)器

./spark-shell --master spark://Master:7077,Worker1:7077,Worker2:7077

把Master的Spark停掉以后,zookeeper會(huì)重新選擇新的Master,例如為Worker1,如果重新打開Master的Spark后則不會(huì)重新變?yōu)锳ctive的。

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多