欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

大數(shù)據(jù):spark集群搭建-創(chuàng)新互聯(lián)

創(chuàng)建spark用戶組,組ID1000

專注于為中小企業(yè)提供網(wǎng)站建設、網(wǎng)站制作服務,電腦端+手機端+微信端的三站合一,更高效的管理,為中小企業(yè)山西免費做網(wǎng)站提供優(yōu)質(zhì)的服務。我們立足成都,凝聚了一批互聯(lián)網(wǎng)行業(yè)人才,有力地推動了1000多家企業(yè)的穩(wěn)健成長,幫助中小企業(yè)通過網(wǎng)站建設實現(xiàn)規(guī)模擴充和轉(zhuǎn)變。

groupadd -g 1000 spark

在spark用戶組下創(chuàng)建用戶ID 2000的spark用戶 獲取視頻中文檔資料及完整視頻的伙伴請加QQ群:947967114
useradd -u 2000 -g spark spark

設置密碼

passwd spark

修改sudo權(quán)限

chmod u+w /etc/sudoers

vi /etc/sudoers

找到

root ALL=(ALL) ALL

添加

spark ALL=(ALL) ALL

創(chuàng)建一個app目錄用來存放spark的軟件環(huán)境(jdk、scala、spark)

mkdir /app

修改這個文件的屬組和屬主

chown -R spark:spark /app

創(chuàng)建soft

mkdir /app/soft

創(chuàng)建spark

mkdir /app/spark

創(chuàng)建/spark/work

mkdir -p /home/spark/work

改變/spark/work屬組和屬主

chown -R spark:spark /home/spark/work

切換用戶

su root

解壓JDK

cd /tmp/

tar zxvf jdk-8u192-linux-x64.tar.gz -C /app/soft/

如果沒有權(quán)限首先使用chmod 777 -R /tmp修改權(quán)限

cd /app/soft/

ll -a

配置/etc/profile

sudo vi /etc/profile,所有需要的配置都添加了

JAVA_HOME=/app/soft/jdk1.8.0_192

PATH=$JAVA_HOME/bin:$PATH:$HOME/bin

export PATH

讓配置生效 獲取視頻中文檔資料及完整視頻的伙伴請加QQ群:947967114
source /etc/profile

安裝scala:

tar zxvf /tmp/scala-2.11.12.tgz -C /app/soft/

配置環(huán)境變量

sudo vi /etc/profile

JAVA_HOME=/app/soft/jdk1.8.0_192

SCALA_HOME=/app/soft/scala-2.11.12/

PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$SCALA_HOME/bin

export PATH

配置ssh無秘登錄

ssh-keygen -t rsa

cd ~/

cd .ssh/

修改公鑰的名字

master節(jié)點:mv id_rsa.pub authorized_keys_master.pub

slave1節(jié)點:mv id_rsa.pub authorized_keys_slave1.pub

slave2節(jié)點:mv id_rsa.pub authorized_keys_slave2.pub

把slave1和slave2的公鑰給master

slave1節(jié)點:scp authorized_keys_slave1.pub spark@master:/home/spark/.ssh/

slave2節(jié)點:scp authorized_keys_slave2.pub spark@master:/home/spark/.ssh/

把三個節(jié)點的公鑰都寫在一個文件中

cat authorized_keys_master.pub >> authorized_keys

cat authorized_keys_slave1.pub >> authorized_keys

cat authorized_keys_slave2.pub >> authorized_keys

查看一下總的公鑰文件

vi authorized_keys

把總的公鑰文件authorized_keys給到slave1和slave2節(jié)點

scp authorized_keys spark@slave1:/home/spark/.ssh

scp authorized_keys spark@slave2:/home/spark/.ssh

修改authorized_keys的操作權(quán)限,三個節(jié)點都需要修改

chmod 400 authorized_keys

驗證免密登錄是否成功

ssh master

ssh slave1

ssh slave2

ssh master

安裝spark:

tar -zxf /tmp/spark-2.1.0-bin-hadoop2.6.gz -C /app/spark/

cd /app/spark/

ls

cd spark-2.1.0-bin-hadoop2.6/

配置環(huán)境變量:

vi /etc/profile

JAVA_HOME=/app/soft/jdk1.8.0_192

SCALA_HOME=/app/soft/scala-2.11.12/

SPARK_HOME=/app/spark/spark-2.1.0-bin-hadoop2.6

PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$JAVA_HOME/bin:$PATH:$HOME/bin:$SCALA_HOME/bin

export PATH

配置spark的核心文件:

cd spark-2.1.0-bin-hadoop2.6/

cd conf/

配置slaves

mv slaves.template slaves

vi slaves 添加三個節(jié)點

master

slave1

slave2

配置spark-env.sh

cp spark-env.sh.template spark-env.sh

vi spark-env.sh

export JAVA_HOME=/app/soft/jdk1.8.0_192

export SCALA_HOME=/app/soft/scala-2.11.12

export SPARK_MASTER_IP=master

export SPARK_MASTER_PORT=7077

export SPARK_EXECUTOR_INSTANCES=1

export SPARK_WORKER_INSTANCES=1

export SPARK_WORKER_CORES=1

export SPARK_WORKER_MEMORY=1024M

export SPARK_MASTER_WEBUI=8080

export SPARK_CONF_DIR=/app/spark/spark-2.1.0-bin-hadoop2.6/conf/

把所有的節(jié)點的app的work和soft權(quán)限都改成777:在所有的節(jié)點上執(zhí)行 chmod 777 -R /app/soft 和chmod 777 -R /app/spark

scp -r /app/spark/ spark@slave1:/app/

scp -r /app/soft/ spark@slave1:/app/

到此spark集群已經(jīng)搭建完成:

開啟:start-all.sh獲取視頻中文檔資料及完整視頻的伙伴請加QQ群:947967114
jps可以看到如下進程:

master節(jié)點:

3617 Worker

3507 Master

4156 Jps

slave1節(jié)點:

3361 Worker

3702 Jps

slave2節(jié)點:

3319 Worker

3647 Jps

開啟spark-shell驗證:

spark-shell --master spark://master:7077 --executor-memory 1024m --driver-memory 1024m

啟動之后會顯示如下內(nèi)容:

18/11/29 16:13:46 WARN ObjectStore: Failed to get database default, returning NoSuchObjectException

18/11/29 16:13:47 WARN ObjectStore: Failed to get database global_temp, returning NoSuchObjectException

Spark context Web UI available at http://192.168.0.10:4040

Spark context available as 'sc' (master = spark://master:7077, app id = app-20181129161336-0000).

Spark session available as 'spark'.

Welcome to

  ____              __

 / __/__  ___ _____/ /__

_\ \/ _ \/ _ `/ __/  '_/

// ./_,// //_\ version 2.1.0

  /_/

Using Scala version 2.11.8 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_192)

Type in expressions to have them evaluated.

Type :help for more information.

scala>

就可以在>后面書寫spark代碼了:

g NoSuchObjectException

Spark context Web UI available at http://192.168.0.10:4040

Spark context available as 'sc' (master = spark://master:7077, app id = app-20181129161336-0000).

Spark session available as 'spark'.

Welcome to

  ____              __

 / __/__  ___ _____/ /__

_\ \/ _ \/ _ `/ __/  '_/

// ./_,// //_\ version 2.1.0

  /_/

Using Scala version 2.11.8 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_192)

Type in expressions to have them evaluated.

Type :help for more information.

scala> sc.textFile("/app/spark/spark-2.1.0-bin-hadoop2.6/README.md").flatMap(.split(" ")).map(x=>(x,1)).reduceByKey(+_).map(x=>(x._2,x._1)).sortByKey(false).map(x=>(x._2,x._1)).take(10)

res0: Array[(String, Int)] = Array(("",71), (the,24), (to,17), (Spark,16), (for,12), (and,9), (##,8), (a,8), (can,7), (run,7))

scala>獲取視頻中文檔資料及完整視頻的伙伴請加QQ群:947967114

另外有需要云服務器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。

分享名稱:大數(shù)據(jù):spark集群搭建-創(chuàng)新互聯(lián)
本文地址:http://chinadenli.net/article44/eoghe.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供手機網(wǎng)站建設云服務器動態(tài)網(wǎng)站外貿(mào)網(wǎng)站建設網(wǎng)站設計公司網(wǎng)站建設

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

商城網(wǎng)站建設