《Apache HBase配置》要點(diǎn):
本文介紹了Apache HBase配置,希望對您有用。如果有疑問,可以聯(lián)系我們。
相關(guān)主題:apache配置
Apache HBase使用與Apache Hadoop相同的配置系統(tǒng).所有配置文件都位于conf /目錄中,該目錄需要為集群中的每個節(jié)點(diǎn)堅持同步.
HBase配置文件闡明
備份主機(jī)
默認(rèn)情況下不存在.一個純文本文件,列出主機(jī)應(yīng)啟動備份主過程的主機(jī),每行一個主機(jī).
hadoop-metrics2-hbase.properties
用于連接HBase Hadoop的Metrics2框架.有關(guān)Metrics2的更多信息,請參閱Hadoop Wiki條目.默認(rèn)情況下僅包括已注釋的示例.
hbase-env.cmd和hbase-env.sh
用于Windows和Linux / Unix環(huán)境的腳本,用于為HBase設(shè)置工作環(huán)境,包括Java,Java選項(xiàng)和其他環(huán)境變量的位置.該文件包括許多注釋的示例,以提供指導(dǎo).
hbase-policy.xml中
RPC服務(wù)器用于對客戶端哀求進(jìn)行授權(quán)決策的默認(rèn)策略配置文件.僅在啟用HBase 安全性的情況下使用.
hbase-site.xml
主HBase配置文件.此文件指定覆蓋HBase的默認(rèn)配置的配置選項(xiàng).您可以查看(但不要編纂)docs / hbase-default.xml中的默認(rèn)配置文件.您還可以在HBase Web UI 的HBase Configuration選項(xiàng)卡中查看集群的整個有效配置(缺省和覆蓋).
log4j.properties
用于HBase日志記錄的配置文件log4j
.
區(qū)域服務(wù)器
包括應(yīng)在HBase集群中運(yùn)行RegionServer的主機(jī)列表的純文本文件.默認(rèn)情況下,此文件包括單個條目localhost
.它應(yīng)該包括主機(jī)名或IP地址的列表,每行一個,并且應(yīng)該包括localhost
如果您的集群中的每個節(jié)點(diǎn)在其接口上運(yùn)行一個localhost
RegionServer.
檢查XML有效性當(dāng)您編輯XML時,最好使用支持XML的編輯器來確保您的語法是正確的,并且XML格式正確.您還可以使用該xmllint 實(shí)用程序檢查XML是否格式正確.默認(rèn)情況下,xmllint 返回并將XML打印到標(biāo)準(zhǔn)輸出.要檢查良好的結(jié)構(gòu),并且只有打印輸出,如果錯誤存在,請使用命令xmllint -noout filename.xml . |
保持配置在群集中同步在分布式模式下運(yùn)行時,在對HBase配置進(jìn)行編輯后,請確保將conf /目錄的內(nèi)容復(fù)制到集群的所有節(jié)點(diǎn).HBase不會為你做這個.使用rsync ,scp 或另一種平安機(jī)制將配置文件復(fù)制到節(jié)點(diǎn).對于大多數(shù)配置,服務(wù)器需要重新啟動以接收更改異常是動態(tài)配置.將在下面描述. |
4.基本先決條件
本節(jié)列出所需的服務(wù)和一些必須的系統(tǒng)配置.
表2. Java
HBase版本 | JDK 6 | JDK 7 | JDK 8 |
---|---|---|---|
2.0 | 不支持 | 不支持 | 是 |
1.3 | 不支持 | 是 | 是 |
1.2 | 不支持 | 是 | 是 |
1.1 | 不支持 | 是 | 運(yùn)行JDK 8將工作,但沒有很好的測試. |
1.0 | 不支持 | 是 | 運(yùn)行JDK 8將工作,但沒有很好的測試. |
0.98 | 是 | 是 | 使用JDK 8運(yùn)行但沒有很好的測試.使用JDK 8構(gòu)建將需要刪除類的已棄用的remove() 辦法,PoolMap 并正在考慮中.有關(guān)JDK 8支持的更多信息,請參閱 HBASE-7608. |
0.94 | 是 | 是 | N / A |
在HBase 0.98.5及更高版本中,必須JAVA_HOME 在集群的每個節(jié)點(diǎn)上設(shè)置.hbase-env.sh提供了一個方便的機(jī)制來做到這一點(diǎn). |
操作系統(tǒng)實(shí)用程序
ssh
HBase廣泛使用平安Shell(ssh)命令和實(shí)用程序在集群節(jié)點(diǎn)之間進(jìn)行通信.集群中的每個服務(wù)器必須運(yùn)行ssh
,以便可以管理Hadoop和HBase后臺駐留程序.您必須能夠使用共享密鑰而不是密碼,通過SSH(包括本地節(jié)點(diǎn))從主服務(wù)器以及任何備份主服務(wù)器連接到所有節(jié)點(diǎn).您可以在“ 過程:配置無密碼SSH訪問 ” 中查看Linux或Unix系統(tǒng)中此類設(shè)置的基本方法.如果集群節(jié)點(diǎn)使用OS X,請參閱Hadoop wiki上的“ SSH:設(shè)置遠(yuǎn)程桌面和啟用自助登錄 ”一節(jié).
DNS
HBase使用本地主機(jī)名自行申報其IP地址.正向和反向DNS解析必須在0.92.0之前的HBase版本中工作.在Hadoop的DNS檢查器工具,可以用來驗(yàn)證DNS在群集上正常工作.項(xiàng)目README
文件提供有關(guān)使用的詳細(xì)說明.
環(huán)回IP
在hbase-0.96.0之前,HBase只使用IP地址127.0.0.1
來引用localhost
,并且這不能被配置.有關(guān)詳細(xì)信息,請參閱環(huán)回IP.
NTP
群集節(jié)點(diǎn)上的時鐘應(yīng)該同步.少量的變化是可以接受的,但更大的偏斜量可能導(dǎo)致不穩(wěn)定和意想不到的行為.時間同步是在集群中看到無法解釋的問題的首要檢查之一.建議在集群上運(yùn)行網(wǎng)絡(luò)時間協(xié)議(NTP)服務(wù)或另一個時間同步機(jī)制,而且所有節(jié)點(diǎn)都查看同一服務(wù)以進(jìn)行時間同步.請參閱基本NTP配置在Linux文檔項(xiàng)目(TLDP)設(shè)置NTP.
文件和進(jìn)程數(shù)量限制(ulimit)
Apache HBase是一個數(shù)據(jù)庫.它必要能夠一次打開大量的文件.許多Linux發(fā)行版限制了允許單個用戶打開的文件數(shù)1024
(或者256
在較舊版本的OS X上).您可以ulimit -n
在運(yùn)行HBase的用戶登錄時通過運(yùn)行該命令在服務(wù)器上檢查此限制.如果限制太低,可能會遇到一些問題,請參閱“疑難解答”部分.您也可能會注意到以下錯誤:
2010-04-06 03:04:37,542 INFO org.apache.hadoop.hdfs.DFSClient:Exception increateBlockOutputStream java.io.EOFException 2010-04-06 03:04:37,542 INFO org.apache.hadoop.hdfs.DFSClient:放棄塊blk_-6935524980745310745_1391901
建議將ulimit提高到至少10,000,但更可能是10,240,因?yàn)樵撝低ǔS?024的倍數(shù)表現(xiàn).每個ColumnFamily都至少有一個StoreFile,如果該區(qū)域有負(fù)載,則可能有多于六個StoreFiles.所需打開文件的數(shù)量取決于ColumnFamilies的數(shù)量和區(qū)域數(shù)量.以下是計算RegionServer上打開文件的可能數(shù)量的粗略公式.
計算打開文件的可能數(shù)
(StoreFiles per ColumnFamily)x(每個RegionServer的區(qū)域)
例如,假設(shè)一個模式每個區(qū)域有3個ColumnFamilies,每個ColumnFamily平均有3個StoreFiles,并且每個RegionServer有100個區(qū)域,JVM將打開3 * 3 * 100 = 900
文件描述符,而不是打開JAR文件,配置文件和其他文件.打開文件不必要很多資源,允許用戶打開太多文件的風(fēng)險極小.
另一個相關(guān)設(shè)置是允許用戶一次運(yùn)行的進(jìn)程數(shù).在Linux和Unix中,使用ulimit -u
命令設(shè)置進(jìn)程數(shù).這不該該與nproc
命令混淆,該命令控制給定用戶可用的CPU的數(shù)量.在負(fù)載下,ulimit -u
太低可能導(dǎo)致OutOfMemoryError異常.請參閱杰克·萊文的主要HDFS問題線程在hbase用戶郵件列表,從2011年.
為運(yùn)行HBase進(jìn)程的用戶配置最大文件描述符和進(jìn)程數(shù)是操作系統(tǒng)配置,而不是HBase配置.確保為實(shí)際運(yùn)行HBase的用戶變動設(shè)置也很重要.要查看哪個用戶啟動HBase和該用戶的ulimit配置,請查看該實(shí)例的HBase日志的第一行.對hadoop集群有用的讀設(shè)置配置是Aaron Kimball的配置參數(shù):你可以忽略什么?
示例5. ulimit
Ubuntu上的設(shè)置
要在Ubuntu上配置ulimit設(shè)置,請編纂/etc/security/limits.conf,它是一個由四列組成的以空格分隔的文件.有關(guān)此文件格式的詳細(xì)信息,請參閱limits.conf的手冊頁.在以下示例中,第一行為使用用戶名hadoop的操作系統(tǒng)用戶將打開文件(nofile)的軟限制和硬限制設(shè)置為32768.第二行將同一用戶的進(jìn)程數(shù)設(shè)置為32000.
hadoop - nofile 32768 hadoop - nproc 32000
僅當(dāng)可插入認(rèn)證模塊(PAM)環(huán)境指向使用這些設(shè)置時,才應(yīng)用這些設(shè)置.要配置PAM以使用這些限制,請確保/etc/pam.d/common-session文件包括以下行:
session required pam_limits.so
Linux Shell
HBase附帶的所有shell腳本都依賴于GNU Bash shell.
視窗
在HBase 0.96之前,在Microsoft Windows上運(yùn)行HBase的測試有限.對于生產(chǎn)系統(tǒng)不建議在Windows節(jié)點(diǎn)上運(yùn)行.
4.1.Hadoop
下表總結(jié)了每個版本的HBase支持的Hadoop的版本.基于HBase的版本,您應(yīng)該選擇最得當(dāng)?shù)腍adoop版本.您可以使用Apache Hadoop或供應(yīng)商的Hadoop發(fā)行版.這里不作區(qū)分.有關(guān)Hadoop供應(yīng)商的信息,請參閱Hadoop wiki.
建議使用Hadoop 2.x.Hadoop 2.x更快,并且包含短路讀取等功能,這將有助于提高您的HBase隨機(jī)讀取配置文件.Hadoop 2.x還包含重要的錯誤修復(fù),將提高您的整體HBase體驗(yàn).HBase 0.98下降對Hadoop 1.0的支持,不推薦使用Hadoop 1.1+,而HBase 1.0將不支持Hadoop 1.x. |
使用以下圖例解釋此表:
Hadoop版本支持矩陣
“S”=支持
“X”=不支持
“NT”=未測試
HBase-0.94.x | HBase-0.98.x(不保舉支持Hadoop 1.1+). | HBase-1.0.x(不支持Hadoop 1.x) | HBase-1.1.x | HBase-1.2.x | HBase-1.3.x | HBase-2.0.x | |
---|---|---|---|---|---|---|---|
Hadoop-1.0.x | X | X | X | X | X | X | X |
Hadoop-1.1.x | S | NT | X | X | X | X | X |
Hadoop-0.23.x | S | X | X | X | X | X | X |
Hadoop-2.0.x-alpha | NT | X | X | X | X | X | X |
Hadoop-2.1.0-beta | NT | X | X | X | X | X | X |
Hadoop-2.2.0 | NT | S | NT | NT | X | X | X |
Hadoop-2.3.x | NT | S | NT | NT | X | X | X |
Hadoop-2.4.x | NT | S | S | S | S | S | X |
Hadoop-2.5.x | NT | S | S | S | S | S | X |
Hadoop-2.6.0 | X | X | X | X | X | X | X |
Hadoop-2.6.1 + | NT | NT | NT | NT | S | S | S |
Hadoop-2.7.0 | X | X | X | X | X | X | X |
Hadoop-2.7.1 + | NT | NT | NT | NT | S | S | S |
Hadoop Pre-2.6.1和JDK 1.8 Kerberos當(dāng)在Kerberos環(huán)境中使用2.6.1之前的Hadoop版本和JDK 1.8時,HBase服務(wù)器可能會失敗并由于Kerberos keytab重新登錄錯誤而中止.晚期版本的JDK 1.7(1.7.0_80)也有問題.有關(guān)其他詳細(xì)信息,請參閱HADOOP-10786.在這種情況下,請考慮升級到Hadoop 2.6.1+. |
Hadoop 2.6.x基于2.6.X的線的Hadoop發(fā)行版必須有 HADOOP-11710應(yīng)用,如果你打算在一個HDFS加密區(qū)之上運(yùn)行HBase的.否則將導(dǎo)致集群故障和數(shù)據(jù)丟失.此修補(bǔ)程序存在于Apache Hadoop 2.6.1+版本中. |
Hadoop 2.7.xHadoop版本2.7.0未經(jīng)測試或支持,因?yàn)镠adoop PMC已將該版本顯式標(biāo)記為不穩(wěn)定. |
替換與HBase捆綁的Hadoop!因?yàn)镠Base依賴于Hadoop,它將Hadoop jar的一個實(shí)例捆綁在其lib目錄下.捆綁的jar僅用于獨(dú)立模式.在分布式模式下,至關(guān)重要的是,您的集群上的Hadoop版本與HBase下的版本相匹配.將HBase lib目錄中找到的hadoop jar替換為您的群集上運(yùn)行的hadoop jar,以避免版本不匹配問題.確保在集群中的任何地方替換HBase中的jar.Hadoop版本不匹配問題有各種表現(xiàn),但往往都看起來像它掛了. |
4.1.1.Apache HBase 0.94與Hadoop 2
要使0.94.x在Hadoop 2.2.0上運(yùn)行,您必要在pom.xml中更改hadoop 2和protobuf版本:這里是一個與pom.xml更改的差異:
$ svn diff pom.xml Index: pom.xml =================================================================== --- pom.xml (revision 1545157) +++ pom.xml (working copy) @@ -1034,7 +1034,7 @@ <slf4j.version>1.4.3</slf4j.version> <log4j.version>1.2.16</log4j.version> <mockito-all.version>1.8.5</mockito-all.version> - <protobuf.version>2.4.0a</protobuf.version> + <protobuf.version>2.5.0</protobuf.version> <stax-api.version>1.0.1</stax-api.version> <thrift.version>0.8.0</thrift.version> <zookeeper.version>3.4.5</zookeeper.version> @@ -2241,7 +2241,7 @@ </property> </activation> <properties> - <hadoop.version>2.0.0-alpha</hadoop.version> + <hadoop.version>2.2.0</hadoop.version> <slf4j.version>1.6.1</slf4j.version> </properties> <dependencies>
下一步是重新生成Protobuf文件并假設(shè)Protobuf已經(jīng)安裝:
使用命令行轉(zhuǎn)到HBase根文件夾;
鍵入以下命令:
$ protoc -Isrc/main/protobuf --java_out=src/main/java src/main/protobuf/hbase.proto
$ protoc -Isrc/main/protobuf --java_out=src/main/java src/main/protobuf/ErrorHandling.proto
通過運(yùn)行類似以下命令來構(gòu)建hadoop 2配置文件:
$ mvn clean install assembly:single -Dhadoop.profile = 2.0 -DskipTests
4.1.2.Apache HBase 0.92和0.94
HBase 0.92和0.94版本可以與Hadoop版本(0.20.205,0.22.x,1.0.x和1.1.x)一起使用.HBase-0.94還可以使用Hadoop-0.23.x和2.x,但是您可能必需使用特定的maven配置文件重新編譯代碼(參見頂級pom.xml)
4.1.3.Apache HBase 0.96
從Apache HBase 0.96.x開始,至少需要Apache Hadoop 1.0.x.強(qiáng)烈鼓勵Hadoop 2(更快,但也有贊助MTTR的修復(fù)).我們將不再在較舊的Hadoops上正常運(yùn)行,例如0.20.205或branch-0.20-append.如果您無法升級Hadoop,請不要移動到Apache HBase 0.96.x.參見HBase,mail#dev - DISCUSS:hbase要求至少hadoop 1.0.0在hbase 0.96.0?
4.1.4.Hadoop版本0.20.x - 1.x
不要將年夜于2.2.0的Hadoop版本用于年夜于1.0的HBase版本.如果您使用的是舊版本的HBase for Hadoop相關(guān)信息,請查看發(fā)行文檔.
4.1.5.Apache Hbase平安Hadoop
Apache HBase將在任何并入Hadoop平安功能的Hadoop 0.20.x上運(yùn)行,只要您像上面建議的那樣,并用平安版本替換HBase附帶的Hadoop jar.如果要閱讀有關(guān)如何設(shè)置Secure HBase的更多信息,請參閱hbase.secure.configuration.
4.1.6. dfs.datanode.max.transfer.threads
HDFS DataNode具有在任何時間將要服務(wù)的文件數(shù)量的上限.在執(zhí)行任何加載之前,請確保您已配置Hadoop的conf / hdfs-site.xml,將dfs.datanode.max.transfer.threads
值設(shè)置為至少以下值:
<property> <name>dfs.datanode.max.transfer.threads</name> <value>4096</value> </property>
進(jìn)行上述配置后,請務(wù)必重新啟動HDFS.
沒有這個配置就會造成奇怪的故障.一種表示形式是關(guān)于缺失區(qū)塊的投訴.例如:
10/12/08 20:10:31 INFO hdfs.DFSClient:無法獲取塊 blk_XXXXXXXXXXXXXXXXXXXXXX_YYYYYYYY來自任何節(jié)點(diǎn):java.io.IOException:沒有活動節(jié)點(diǎn) 包括當(dāng)前塊.將從namenode獲取新的塊位置并重試...
另請參見casestudies.max.transfer.threads并注意,此屬性以前稱為dfs.datanode.max.xcievers
(例如Hadoop HDFS:由Xciever欺騙).
4.2.ZooKeeper要求
從HBase 1.0.0起,需要ZooKeeper 3.4.x.HBase利用multi
只有從Zookeeper 3.4.0可用的功能.該hbase.zookeeper.useMulti
配置屬性默認(rèn)為true
在HBase的1.0.0.參考HBASE-12241(當(dāng)服務(wù)器復(fù)制隊(duì)列中斷時復(fù)制時regionServer崩潰)和HBASE-6775(當(dāng)HBASE-6710 0.92 / 0.94兼容性修復(fù)時使用ZK.multi)作為配景.該屬性已棄用,并且在HBase 2.0中始終啟用useMulti.
本日的學(xué)習(xí)就到這里,明天我們將學(xué)習(xí)
HBase運(yùn)行模式:自力和分布式
《Apache HBase配置》是否對您有啟發(fā),歡迎查看更多與《Apache HBase配置》相關(guān)教程,學(xué)精學(xué)透。維易PHP學(xué)院為您提供精彩教程。
轉(zhuǎn)載請注明本頁網(wǎng)址:
http://www.fzlkiss.com/jiaocheng/11769.html