HDFS存放副本時會優(yōu)先在同一個數據節(jié)點備份一份,然后在不同的虛擬機架上備份
namenode的HA是靠主備方式保證的,自動切換時要用到zookeeper,手動切換可以通過命令,備節(jié)點可以在數據節(jié)點上,一套HDFS-HA最少需要3臺機子
安裝步驟:
#yum install java
#wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz
#tar -zxvf hadoop-2
#mv hadoop-2.6.0 /usr/local/hadoop
ssh免密碼登錄,分發(fā)公鑰:
#ssh-keygen -t rsa
#ssh-copy-id -i /root/.ssh/id_rsa.pub '-p 22 root@192.168.128.129'
#vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.79.x86_64/jre 指定jdk目錄 export HADOOP_PID_DIR=${HADOOP_HOME}/pids export HADOOP_SSH_OPTS="-p 1234" 如果非22的ssh端口,需要這行來指定端口
#vim /usr/local/hadoop/etc/hadoop/core-site.xml 編輯主節(jié)點主要參數
<configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/hdfs/tmp</value>指定上傳到hdfs數據臨時存放目錄,多硬盤可設多個來備份和提高效率 </property> <property> <name>fs.default.name</name> <value>hdfs://192.168.128.129:9000</value> 指定默認主的訪問方式 </property> </configuration>
#mkdir -p /hdfs/tmp
#vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml 編輯hdfs數據存放參數
<configuration> <property> <name>dfs.replication</name> <value>2</value> 數據備份數 </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/hdfs/name</value> name節(jié)點存放數據位置,多硬盤可設置多個來備份和提高效率 </property> <property> <name>dfs.datannode.data.dir</name> <value>file:/hdfs/nodedata</value> 數據節(jié)點存數據位置,多硬盤可設多個來備份和提高效率 </property> <property> <name>dfs.namenode.secondary.http-address</name> 指定備name節(jié)點ip <value>hdfs://備節(jié)點ip:50070</value> </property> <name>dfs.webhdfs.enabled</name> 開啟網頁看結構功能 <value>true</value> </property> <property> <name>dfs.permissions</name> 文件操作時禁止檢查權限 <value>false</value> </property> </configuration>
#mkdir /hdfs/name
#mkdir /hdfs/nodedata
#vim /usr/local/hadoop/etc/hadoop/slaves 添加數據節(jié)點的ip或主機名
#export HADOOP_ROOT_LOGGER=DEBUG,console 為了解決本地庫報錯,設置前端顯示日志
#/usr/local/hadoop/bin/hadoop fs -ls 主要看看需要的GLIBC版本
#wget http://ftp.gnu.org/gnu/glibc/glibc-2.14.tar.gz
#tar -zxvf glibc-2.14
#mkdir glibc-build
#cd glibc-build
#../glibc-2.14/configur --prefix=/usr
#make && make install 最后出現(xiàn)的libc5啥的錯誤無視他
#shutdown -r 0 重啟系統(tǒng)生效
開始使用:
#/usr/local/hadoop/bin/hadoop namenode -format 格式化
#/usr/local/hadoop/sbin/start-dfs.sh 在namenode節(jié)點啟動HDFS stop-dfs.sh 停止
訪問 http://ip:50070 看網頁狀態(tài)
監(jiān)控:
獲取HDFS狀態(tài)命令:
#/usr/local/hadoop/bin/hadoop dfsadmin -report
如果livenode是0的話就刪了所有節(jié)點的tmp、name、data文件夾里的東西,然后再格式化,啟動
另外有需要云服務器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。
名稱欄目:部署HDFS-創(chuàng)新互聯(lián)
URL標題:http://chinadenli.net/article16/ddsedg.html
成都網站建設公司_創(chuàng)新互聯(lián),為您提供域名注冊、網頁設計公司、網站營銷、做網站、網站改版、面包屑導航
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)