這篇文章將為大家詳細(xì)講解有關(guān)hadoop如何基于Linux7的安裝配置圖文,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。
在瑪多等地區(qū),都構(gòu)建了全面的區(qū)域性戰(zhàn)略布局,加強(qiáng)發(fā)展的系統(tǒng)性、市場(chǎng)前瞻性、產(chǎn)品創(chuàng)新能力,以專(zhuān)注、極致的服務(wù)理念,為客戶提供成都做網(wǎng)站、網(wǎng)站設(shè)計(jì) 網(wǎng)站設(shè)計(jì)制作按需網(wǎng)站制作,公司網(wǎng)站建設(shè),企業(yè)網(wǎng)站建設(shè),品牌網(wǎng)站設(shè)計(jì),全網(wǎng)整合營(yíng)銷(xiāo)推廣,成都外貿(mào)網(wǎng)站建設(shè)公司,瑪多網(wǎng)站建設(shè)費(fèi)用合理。
如上圖 準(zhǔn)備好該準(zhǔn)備的食材(ps:其中的hadoop-3.1.2-src更改為hadoop-3.1.2
src為源文件的意思? 反正就是換了 大家注意一下 后面截圖有錯(cuò)的地方有空我再改吧 肝疼)
安裝好centos7
桌面右鍵打開(kāi)terminal——輸入ifconfig——查看ens33的ip——記住然后打開(kāi)xftp6
點(diǎn)擊新建
把食材多選,右鍵傳輸即可,內(nèi)網(wǎng)傳輸速度不快不慢
所示很完美了
解壓hadoop安裝包 tar -zxvf hadoop-3.1.2-src.tar.gz
重新裝了centos7 解壓的時(shí)候分文件夾了
如上圖編寫(xiě)
打開(kāi)xshell 新建
輸入你的主機(jī)ip 在用戶身份驗(yàn)證上寫(xiě)上用戶名和密碼
yes就完事了——然后三臺(tái)機(jī)器都需要改了名字
時(shí)間同步時(shí)區(qū)一致。要保證設(shè)置主機(jī)時(shí)間準(zhǔn)確,每臺(tái)機(jī)器時(shí)區(qū)必須一致。實(shí)驗(yàn)中我們需要同步網(wǎng)絡(luò)時(shí)間,因此要首先選擇一樣的時(shí)區(qū)。先確保時(shí)區(qū)一樣,否則同步以后時(shí)間也是有時(shí)區(qū)差??梢允褂?date 命令查看自己的機(jī)器時(shí)間. 選擇時(shí)區(qū):tzselect
1.關(guān)閉防火墻
當(dāng)其狀態(tài)是 dead 時(shí),即防火墻關(guān)閉。 關(guān)閉防火墻:systemctl stop firewalld 查看狀態(tài):systemctl status firewalld
2. hosts文件配置 (三臺(tái)機(jī)器)如下圖輸入各節(jié)點(diǎn)的ip
3. master 作為 ntp 服務(wù)器,修改 ntp 配置文件。(master 上執(zhí)行)
vi /etc/ntp.conf server 127.127.1.0 # local clock fudge 127.127.1.0 stratum 10 #stratum 設(shè)置為其它值也是可以的,其范圍為 0~15
重啟 ntp 服務(wù)。 /bin/systemctl restart ntpd.service 其他機(jī)器同步(slave1,slave2) 等待大概五分鐘,再到其他機(jī)上同步該 master 服務(wù)器時(shí)間。 ntpdate master 如果配置平臺(tái)式?jīng)]有外網(wǎng)連接可以將三臺(tái)機(jī)器設(shè)為統(tǒng)一時(shí)間,輸入命令: date -s 10:00(時(shí)間)
終于走到正題???別慌快了
1. SSH免密
(1)每個(gè)結(jié)點(diǎn)分別產(chǎn)生公私密鑰:
ssh-keygen -t dsa -P ‘' -f ~/.ssh/id_dsa(三臺(tái)機(jī)器)
秘鑰產(chǎn)生目錄在用戶主目錄下的.ssh 目錄中,進(jìn)入相應(yīng)目錄查看:
cd .ssh/
(2)Id_dsa.pub 為公鑰,id_dsa 為私鑰,緊接著將公鑰文件復(fù)制成 authorized_keys 文 件:(僅 master)
cat id_dsa.pub >> authorized_keys(注意在.ssh/路徑下操作)
在主機(jī)上連接自己,也叫做 ssh 內(nèi)回環(huán)。
ssh master
(3)讓主結(jié)點(diǎn) master 能通過(guò) SSH 免密碼登錄兩個(gè)子結(jié)點(diǎn) slave。(slave 中操作)
為了實(shí)現(xiàn)這個(gè)功能,兩個(gè) slave 結(jié)點(diǎn)的公鑰文件中必須要包含主結(jié)點(diǎn)的公鑰信息,這樣
當(dāng) master 就可以順利安全地訪問(wèn)這兩個(gè) slave 結(jié)點(diǎn)了。
slave1 結(jié)點(diǎn)通過(guò) scp 命令遠(yuǎn)程登錄 master 結(jié)點(diǎn),并復(fù)制 master 的公鑰文件到當(dāng)前的目錄
下,且重命名為 master_das.pub,這一過(guò)程需要密碼驗(yàn)證。
scp master:~/.ssh/id_dsa.pub ./master_das.pub
將 master 結(jié)點(diǎn)的公鑰文件追加至 authorized_keys 文件:
cat master_das.pub >> authorized_keys
(1)每個(gè)結(jié)點(diǎn)分別產(chǎn)生公私密鑰: ssh-keygen -t dsa -P ‘' -f ~/.ssh/id_dsa(三臺(tái)機(jī)器)秘鑰產(chǎn)生目錄在用戶主目錄下的.ssh 目錄中,進(jìn)入相應(yīng)目錄查看: cd .ssh/ (2)Id_dsa.pub 為公鑰,id_dsa 為私鑰,緊接著將公鑰文件復(fù)制成 authorized_keys 文 件:(僅 master) cat id_dsa.pub >> authorized_keys(注意在.ssh/路徑下操作) 在主機(jī)上連接自己,也叫做 ssh 內(nèi)回環(huán)。 ssh master
這時(shí),
master 就可以連接 slave1 了。
slave1 結(jié)點(diǎn)首次連接時(shí)需要,“yes”確認(rèn)連接,這意味著 master 結(jié)點(diǎn)連接 slave1 結(jié)點(diǎn)時(shí)需要人工詢問(wèn),無(wú)法自動(dòng)連接,輸入 yes 后成功接入,緊接著注銷(xiāo)退出至 master 結(jié)點(diǎn)。
同理 slave2 中也是這么操作
jdk之前已經(jīng)安裝好了,所以我們直接來(lái)配環(huán)境,就和windows的時(shí)候配環(huán)境變量一個(gè)道理(三臺(tái))
修改環(huán)境變量:vi /etc/profile > 添加內(nèi)容如下: > export JAVA_HOME=/usr/java/jdk1.8.0_241 > export CLASSPATH=$JAVA_HOME/lib/export > PATH=$PATH:$JAVA_HOME/bin > export PATH JAVA_HOME CLASSPATH
生效環(huán)境變量:source /etc/profile
插播一個(gè)小技巧scp
scp /etc/profile slave1:/etc/profile ##這樣就可以傳給slave1 和slave2了
終于到hadoop了??? 恭喜寧!
配置環(huán)境變量: vi/etc/profile export HADOOP_HOME=/usr/hadoop/hadoop-3.1.2 export CLASSPATH=$CLASSPATH:$HADOOP_HOME/lib export PATH=$PATH:$HADOOP_HOME/bin
我經(jīng)常忘的一步大聲告訴我是什么!
使用以下命令使profile生效: source /etc/profile
溫馨提示 下面就是配置文件的內(nèi)容了 本文暫時(shí)不做講解內(nèi)容但是我已經(jīng)給大家準(zhǔn)備好標(biāo)準(zhǔn)的配置文件了
編輯hadoop環(huán)境配置文件hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_241 在這個(gè)文件里面會(huì)有好多注釋的語(yǔ)句,找到你要配置的模板把井號(hào)刪除完善即可 耐心找一下
然后我偷懶的地方就要到了?。。。?!我上傳了幾個(gè)配置文件 我們復(fù)制到這個(gè)文件夾中即可 系統(tǒng)提示是否覆蓋時(shí)候就輸入y即可
core-site.xml yarn-site.xml hdfs-site.xml mapred-site.xml
還需要寫(xiě)一下slave文件 加上slave1 slave2如下圖
還有master文件
(9)分發(fā)hadoop: scp -r /usr/hadoop root@slave1:/usr/ scp -r /usr/hadoop root@slave2:/usr/
master中格式化hadoop hadoop namenode -format 如果報(bào)錯(cuò)的話 看看是不是如下鏈接的錯(cuò)誤 里面有解決辦法
關(guān)于“hadoop如何基于Linux7的安裝配置圖文”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。
文章標(biāo)題:hadoop如何基于Linux7的安裝配置圖文
網(wǎng)站網(wǎng)址:http://chinadenli.net/article42/jsehhc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供做網(wǎng)站、品牌網(wǎng)站制作、靜態(tài)網(wǎng)站、全網(wǎng)營(yíng)銷(xiāo)推廣、商城網(wǎng)站、用戶體驗(yàn)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)
網(wǎng)頁(yè)設(shè)計(jì)公司知識(shí)