欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

Hadoop3.0.0-alpha2安裝(二)

由于博客文字限制,只能分開寫了:
Hadoop 3.0.0-alpha2安裝(一)鏈接:
http://laowafang.blog.51cto.com/251518/1912342

5、FAQ

1、問題:本地庫與當(dāng)前操作系統(tǒng)的版本不一致:

$ /data/hadoop/bin/hadoopchecknative -a    # 警告信息:

創(chuàng)新互聯(lián)建站主要為客戶提供服務(wù)項(xiàng)目涵蓋了網(wǎng)頁視覺設(shè)計(jì)、VI標(biāo)志設(shè)計(jì)、全網(wǎng)營銷推廣、網(wǎng)站程序開發(fā)、HTML5響應(yīng)式重慶網(wǎng)站建設(shè)公司成都做手機(jī)網(wǎng)站、微商城、網(wǎng)站托管及成都網(wǎng)站維護(hù)、WEB系統(tǒng)開發(fā)、域名注冊、國內(nèi)外服務(wù)器租用、視頻、平面設(shè)計(jì)、SEO優(yōu)化排名。設(shè)計(jì)、前端、后端三個(gè)建站步驟的完善服務(wù)體系。一人跟蹤測試的建站服務(wù)標(biāo)準(zhǔn)。已經(jīng)為成都玻璃隔斷行業(yè)客戶提供了網(wǎng)站開發(fā)服務(wù)。

2017-03-27 18:02:12,116 WARN util.NativeCodeLoader:Unable to load native-hadoop library for your platform... using builtin-javaclasses where applicable

Native library checking:

hadoop:  false

zlib:    false

zstd  :  false

snappy:  false

lz4:     false

bzip2:   false

openssl: false

ISA-L:   false

參看信息:

(1)查看hadoop native的GLIBC支持的版本:

# strings/data/hadoop/lib/native/libhadoop.so.1.0.0 |grep GLIBC

GLIBC_2.2.5

GLIBC_2.12

GLIBC_2.7

GLIBC_2.14

GLIBC_2.6

GLIBC_2.4

GLIBC_2.3.4

(2)查看本地linux的GLIBC版本:

# strings /lib64/libc.so.6 | grep GLIBC

GLIBC_2.2.5

GLIBC_2.2.6

GLIBC_2.3

GLIBC_2.3.2

GLIBC_2.3.3

GLIBC_2.3.4

GLIBC_2.4

GLIBC_2.5

GLIBC_2.6

GLIBC_2.7

GLIBC_2.8

GLIBC_2.9

GLIBC_2.10

GLIBC_2.11

GLIBC_2.12

GLIBC_PRIVATE

上面報(bào)錯(cuò)可見,在linux上沒有GLIBC 2.14,因此報(bào)錯(cuò),處理方式只能是將hadoop源碼在本地linux上用本地c庫來編譯,這樣在運(yùn)行hadoop時(shí)就會(huì)用本地的c庫。

解決:第一種方法:

# tar -jxvf glibc-2.14.tar.bz2

# cd glibc-2.14

# tar -jxvf../glibc-linuxthreads-2.5.tar.bz2

# cd ..

# export CFLAGS="-g -O2"

# ./glibc-2.14/configure --prefix=/usr \

 --disable-profile --enable-add-ons \

 --with-headers=/usr/include \

 --with-binutils=/usr/bin \

# make -j `grep processor /proc/cpuinfo |wc -l`

# make install

### 注意:安裝編譯過程:

(1)要將glibc-linuxthreads解壓到glibc目錄下。

(2)不能在glibc當(dāng)前目錄下運(yùn)行configure。

(3)加上優(yōu)化開關(guān),export CFLAGS="-g -O2",否則會(huì)出現(xiàn)錯(cuò)誤

# /data/hadoop/bin/hadoopchecknative -a    # 核實(shí)成功

2017-03-28 09:43:42,942 INFObzip2.Bzip2Factory: Successfully loaded & initialized native-bzip2 librarysystem-native

2017-03-28 09:43:42,962 INFOzlib.ZlibFactory: Successfully loaded & initialized native-zlib library

Native library checking:

hadoop: true /data/hadoop-3.0.0-alpha2/lib/native/libhadoop.so.1.0.0

zlib:   true /lib64/libz.so.1

zstd  : false

snappy: true /usr/lib64/libsnappy.so.1

lz4:    true revision:10301

bzip2:  true /lib64/libbz2.so.1

openssl: true /usr/lib64/libcrypto.so

ISA-L:   false libhadoop wasbuilt without ISA-L support

2017-03-28 09:43:43,190 INFO util.ExitUtil:Exiting with status 1

[root@master opt]# file/data/hadoop-3.0.0-alpha2/lib/native/libhadoop.so.1.0.0

/data/hadoop-3.0.0-alpha2/lib/native/libhadoop.so.1.0.0:ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, notstripped

### 說明:以上紅色字體暫沒解決,查閱資料暫時(shí)不影響使用,有知者麻煩告知,謝謝。

$./start-all.sh        # 再次啟動(dòng)信息

WARNING: Attempting to start all ApacheHadoop daemons as hadoop in 10 seconds.

WARNING: This is not a recommendedproduction deployment configuration.

WARNING: Use CTRL-C to abort.

Starting namenodes on [master]

Starting datanodes

Starting secondary namenodes [master]

Starting resourcemanager

Starting nodemanagers

解決:第二種方法重新編譯hadoop本地庫   # 本人沒有測試過,參考如下:

http://zkread.com/article/1187940.html

http://forevernull.com/category/%E9%97%AE%E9%A2%98%E8%A7%A3%E5%86%B3/

 

6、其他

6.1壓縮收集

目前在Hadoop中用得比較多的有l(wèi)zo,gzip,snappy,bzip2這4種壓縮格式,筆者根據(jù)實(shí)踐經(jīng)驗(yàn)介紹一下這4種壓縮格式的優(yōu)缺點(diǎn)和應(yīng)用場景,以便大家在實(shí)踐中根據(jù)實(shí)際情況選擇不同的壓縮格式。

1、gzip壓縮

優(yōu)點(diǎn):壓縮率比較高,而且壓縮/解壓速度也比較快;hadoop本身支持,在應(yīng)用中處理gzip格式的文件就和直接處理文本一樣;有hadoop native庫;大部分linux系統(tǒng)都自帶gzip命令,使用方便。

缺點(diǎn):不支持split。

 

應(yīng)用場景:當(dāng)每個(gè)文件壓縮之后在130M以內(nèi)的(1個(gè)塊大小內(nèi)),都可以考慮用gzip壓縮格式。譬如說一天或者一個(gè)小時(shí)的日志壓縮成一個(gè)gzip文件,運(yùn)行mapreduce程序的時(shí)候通過多個(gè)gzip文件達(dá)到并發(fā)。hive程序,streaming程序,和java寫的mapreduce程序完全和文本處理一樣,壓縮之后原來的程序不需要做任何修改。

2、lzo壓縮

優(yōu)點(diǎn):壓縮/解壓速度也比較快,合理的壓縮率;支持split,是hadoop中最流行的壓縮格式;支持hadoop native庫;可以在linux系統(tǒng)下安裝lzop命令,使用方便。

缺點(diǎn):壓縮率比gzip要低一些;hadoop本身不支持,需要安裝;在應(yīng)用中對lzo格式的文件需要做一些特殊處理(為了支持split需要建索引,還需要指定inputformat為lzo格式)。

應(yīng)用場景:一個(gè)很大的文本文件,壓縮之后還大于200M以上的可以考慮,而且單個(gè)文件越大,lzo優(yōu)點(diǎn)越越明顯。

3、snappy壓縮

優(yōu)點(diǎn):高速壓縮速度和合理的壓縮率;支持hadoop native庫。

缺點(diǎn):不支持split;壓縮率比gzip要低;hadoop本身不支持,需要安裝;linux系統(tǒng)下沒有對應(yīng)的命令。

應(yīng)用場景:當(dāng)mapreduce作業(yè)的map輸出的數(shù)據(jù)比較大的時(shí)候,作為map到reduce的中間數(shù)據(jù)的壓縮格式;或者作為一個(gè)mapreduce作業(yè)的輸出和另外一個(gè)mapreduce作業(yè)的輸入。

4、bzip2壓縮

優(yōu)點(diǎn):支持split;具有很高的壓縮率,比gzip壓縮率都高;hadoop本身支持,但不支持native;在linux系統(tǒng)下自帶bzip2命令,使用方便。

缺點(diǎn):壓縮/解壓速度慢;不支持native。

應(yīng)用場景:適合對速度要求不高,但需要較高的壓縮率的時(shí)候,可以作為mapreduce作業(yè)的輸出格式;或者輸出之后的數(shù)據(jù)比較大,處理之后的數(shù)據(jù)需要壓縮存檔減少磁盤空間并且以后數(shù)據(jù)用得比較少的情況;或者對單個(gè)很大的文本文件想壓縮減少存儲(chǔ)空間,同時(shí)又需要支持split,而且兼容之前的應(yīng)用程序(即應(yīng)用程序不需要修改)的情況。

6.2清理

在安裝過程中會(huì)出現(xiàn)頻繁重啟測試配置文件內(nèi)容,建議每次先關(guān)閉,清理日志,清理以下創(chuàng)建的文件:

# mkdir -p/data/{hdfsname1,hdfsname2}/hdfs/name

# mkdir -p/data/{hdfsdata1,hdfsdata2}/hdfs/data

# rm -rf /data/hadoop/tmp

### 發(fā)現(xiàn)還有好多東西要搞,后續(xù)有時(shí)間繼續(xù)完善,然后……不知道什么時(shí)候了^_^

劉政委 2017-04-01

網(wǎng)站名稱:Hadoop3.0.0-alpha2安裝(二)
標(biāo)題網(wǎng)址:http://chinadenli.net/article0/jiihoo.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供小程序開發(fā)、網(wǎng)站內(nèi)鏈軟件開發(fā)、標(biāo)簽優(yōu)化App開發(fā)、電子商務(wù)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

成都網(wǎng)站建設(shè)