自拍偷在线精品自拍偷|国产无码一区二区久久|最新版天堂资源中文官网|国产精品第一页爽爽影院|国产精品一区二区av不卡|久久久波多野av一区无码|国产欧美日本亚洲精品一4区|亚洲精品天堂在线观看2020

當前位置:首頁 > 軟件開放 > 正文內(nèi)容

怎么看hadoop環(huán)境配置成功沒(怎么看hadoop是否安裝成功)

軟件開放2年前 (2023-04-04)1374

本篇文章給大家談?wù)勗趺纯磆adoop環(huán)境配置成功沒,以及怎么看hadoop是否安裝成功對應(yīng)的知識點,希望對各位有所幫助,不要忘了收藏本站喔。

本文目錄一覽:

初次啟動Hadoop

首先把Hadoop安裝包解壓到系統(tǒng)中

查看其目錄結(jié)構(gòu)

要修改hadoop的一些配置,在etc/hadoop/目錄下,修改hadoop-env.sh

配置jdk的路徑

修改core-site.xml

在configuration中添加

fs.defaultFS ?表示hadoop默認的文件系統(tǒng)是什么

hadoop.tmp.dir 表示其他datanode產(chǎn)生的要放在namenode上的文件的存放路徑

在/etc/profile中添加Hadoop的環(huán)境變量配置,之后source

此時已經(jīng)可以啟動hadoop了

啟動前先初始化hadoop 也就是創(chuàng)建那個臨時目錄

表示成功

啟動hadoop的命令是hadoop-daemon.sh start namenode

查看一下 pid=4778即為hadoop的進程 9000是剛才在配置文件中配置的內(nèi)部端口 50070是外部窗口

打開電腦上的瀏覽器輸入nn-01:50070(nn-01是hostname)即可出現(xiàn)如下界面 證明hadoop啟動成功并可訪問

如何查看hadoop集群是否安裝成功(用jps命令

1、用jps命令

(1)master節(jié)點

啟動集群:

cy@master:~$ start-all.sh

starting namenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-namenode-master.out

slave2: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave2.out

slave1: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave1.out

master: starting secondarynamenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-secondarynamenode-master.out

starting jobtracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-jobtracker-master.out

slave1: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave1.out

slave2: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave2.out

用jps命令查看Java進程:

cy@master:~$ jps

6670 NameNode

7141 Jps

7057 JobTracker

(2)slave1節(jié)點

用jps命令查看Java進程:

cy@slave1:~$ jps

3218 Jps

2805 DataNode

2995 TaskTracker

(3)slave2節(jié)點

用jps命令查看Java進程:

cy@slave2:~$ jps

2913 TaskTracker

2731 DataNode

3147 Jps

如果三臺虛擬機用jps命令查詢時如上面顯示的那樣子,就說明hadoop安裝和配置成功了。

2、hadoop集群的測試,用hadoop-examples-1.2.1.jar中自帶的wordcount程序進行測試,該程序的作用是統(tǒng)計單詞的個數(shù)。

(1)我們現(xiàn)在桌面上創(chuàng)建一個新的文件test.txt,里面總共有10行,每行都是hello world

(2)在HDFS系統(tǒng)里創(chuàng)建一個input文件夾,使用命令如下:

hadoop fs -mkdir input

或 hadoop fs -mkdir /user/你的用戶名/input

(3)把創(chuàng)建好的test.txt上傳到HDFS系統(tǒng)的input文件夾下,使用命令如下所示。

hadoop fs -put /home/你的用戶名/桌面/test.txt input

或 hadoop fs -put /home/你的用戶名/桌面/test.txt /user/你的用戶名/input

(4)我們可以查看test.txt是否在HDFS的input文件夾下,如下所示:

hadoop fs -ls input

如果顯示如下就說明上傳成功:

Found 1 items

-rw-r--r-- 3 cy supergroup 120 2015-05-08 20:26 /user/cy/input/test.txt

(5)執(zhí)行hadoop-examples-1.2.1.jar中自帶的wordcount程序,如下:(提示:在執(zhí)行下面的命令之前,你要在終端用cd命令進入到/home/cy/Hadoop/hadoop-1.2.1目錄)

hadoop jar hadoop-examples-1.2.1.jar wordcount /user/你的用戶名/input/test.txt /user/你的用戶名/output

如果顯示如下結(jié)果就說明運行成功:

15/05/08 20:31:29 INFO input.FileInputFormat: Total input paths to process : 1

15/05/08 20:31:29 INFO util.NativeCodeLoader: Loaded the native-hadoop library

15/05/08 20:31:29 WARN snappy.LoadSnappy: Snappy native library not loaded

15/05/08 20:31:30 INFO mapred.JobClient: Running job: job_201505082010_0001

15/05/08 20:31:31 INFO mapred.JobClient: map 0% reduce 0%

15/05/08 20:31:35 INFO mapred.JobClient: map 100% reduce 0%

15/05/08 20:31:42 INFO mapred.JobClient: map 100% reduce 33%

15/05/08 20:31:43 INFO mapred.JobClient: map 100% reduce 100%

15/05/08 20:31:43 INFO mapred.JobClient: Job complete: job_201505082010_0001

15/05/08 20:31:43 INFO mapred.JobClient: Counters: 29

15/05/08 20:31:43 INFO mapred.JobClient: Job Counters

15/05/08 20:31:43 INFO mapred.JobClient: Launched reduce tasks=1

15/05/08 20:31:43 INFO mapred.JobClient: SLOTS_MILLIS_MAPS=3117

15/05/08 20:31:43 INFO mapred.JobClient: Total time spent by all reduces waiting after reserving slots (ms)=0

15/05/08 20:31:43 INFO mapred.JobClient: Total time spent by all maps waiting after reserving slots (ms)=0

15/05/08 20:31:43 INFO mapred.JobClient: Launched map tasks=1

15/05/08 20:31:43 INFO mapred.JobClient: Data-local map tasks=1

15/05/08 20:31:43 INFO mapred.JobClient: SLOTS_MILLIS_REDUCES=8014

15/05/08 20:31:43 INFO mapred.JobClient: File Output Format Counters

15/05/08 20:31:43 INFO mapred.JobClient: Bytes Written=18

15/05/08 20:31:43 INFO mapred.JobClient: FileSystemCounters

15/05/08 20:31:43 INFO mapred.JobClient: FILE_BYTES_READ=30

15/05/08 20:31:43 INFO mapred.JobClient: HDFS_BYTES_READ=226

15/05/08 20:31:43 INFO mapred.JobClient: FILE_BYTES_WRITTEN=116774

15/05/08 20:31:43 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=18

15/05/08 20:31:43 INFO mapred.JobClient: File Input Format Counters

15/05/08 20:31:43 INFO mapred.JobClient: Bytes Read=120

15/05/08 20:31:43 INFO mapred.JobClient: Map-Reduce Framework

15/05/08 20:31:43 INFO mapred.JobClient: Map output materialized bytes=30

15/05/08 20:31:43 INFO mapred.JobClient: Map input records=10

15/05/08 20:31:43 INFO mapred.JobClient: Reduce shuffle bytes=30

15/05/08 20:31:43 INFO mapred.JobClient: Spilled Records=4

15/05/08 20:31:43 INFO mapred.JobClient: Map output bytes=200

15/05/08 20:31:43 INFO mapred.JobClient: CPU time spent (ms)=610

15/05/08 20:31:43 INFO mapred.JobClient: Total committed heap usage (bytes)=176427008

15/05/08 20:31:43 INFO mapred.JobClient: Combine input records=20

15/05/08 20:31:43 INFO mapred.JobClient: SPLIT_RAW_BYTES=106

15/05/08 20:31:43 INFO mapred.JobClient: Reduce input records=2

15/05/08 20:31:43 INFO mapred.JobClient: Reduce input groups=2

15/05/08 20:31:43 INFO mapred.JobClient: Combine output records=2

15/05/08 20:31:43 INFO mapred.JobClient: Physical memory (bytes) snapshot=182902784

15/05/08 20:31:43 INFO mapred.JobClient: Reduce output records=2

15/05/08 20:31:43 INFO mapred.JobClient: Virtual memory (bytes) snapshot=756301824

15/05/08 20:31:43 INFO mapred.JobClient: Map output records=20

(6)我們可以使用下面的命令還查看運行后的結(jié)果:

hadoop fs -ls output

hadoop fs -text /user/你的用戶名/output/part-r-00000

如果顯示如下就說明hadoop三個節(jié)點安裝和配置成功,測試也成功了,就可以繼續(xù)更深入地使用和研究hadoop了

hello 10

world 10

如何查看hadoop

Hadoop HDFS只有服務(wù)日志,與Hadoop MapReduce的服務(wù)日志類似;

Hadoop MapReduce日志分為兩部分,一部分是服務(wù)日志,一部分是作業(yè)日志,具體介紹如下:

1. Hadoop 1.x版本

Hadoop 1.x中MapReduce的服務(wù)日志包括JobTracker日志和各個TaskTracker日志,他們的日志位置如下(Web界面也可查看其日志,地址http://主節(jié)點IP:50030):

JobTracker:在JobTracker安裝節(jié)點上,默認位置是

${hadoop.log.dir}/logs/*-jobtracker-*.log,該文件每天生成一個,舊的日志后綴是日期,當天的日志文件后綴是“.log”,其中${hadoop.log.dir}默認值是hadoop安裝目錄,即${HADOOP_HOME}。

TaskTracker:在各個TaskTracker安裝節(jié)點上,默認位置是

$HADOOP_HOME/logs/*-tasktracker-*.log,該文件每天生成一個,舊的日志后面會跟一個日志,當天的日志文件后綴是“.log”

作業(yè)日志包括jobhistory日志和task日志兩部分,其中,jobhistory日志是作業(yè)運行日志,包括作業(yè)啟動時間、結(jié)束時間,每個任務(wù)的啟動時間、結(jié)束時間,各種counter信息等,用戶可以從這個日志中解析出作業(yè)運行的各種信息,是非常有價值的信息。默認存放位置是JobTracker所在節(jié)點的${hadoop.log.dir}/history目錄下,可通過參數(shù)hadoop.job.history.location配置。每個task日志存放在task運行節(jié)點上,存放位置是${hadoop.log.dir}/userlogs/jobid/attempt-id目錄下,每個task包含三個日志文件,分別是stdout、stderr和syslog,其中,stdout是通過標準輸出打印出來的日志,比如System.out.println,注意,程序中通過標準輸出打印的日志并不會直接顯示在終端上,而是保存在這個文件中,syslog是通過log4j打印的日志,通常這個日志中包含的有用信息最多,也是錯誤調(diào)試中最關(guān)鍵的參考日志。

2. Hadoop 2.x版本

Hadoop 2.x中YARN系統(tǒng)的服務(wù)日志包括ResourceManager日志和各個NodeManager日志,他們的日志位置如下:

ResourceManager日志存放位置是Hadoop安裝目錄下的logs目錄下的yarn-*-resourcemanager-*.log

NodeManager日志存放位置是各個NodeManager節(jié)點上hadoop安裝目錄下的logs目錄下的yarn-*-nodemanager-*.log

應(yīng)用程序日志包括jobhistory日志和Container日志,其中,jobhistory日志是應(yīng)用程序運行日志,包括應(yīng)用程序啟動時間、結(jié)束時間,每個任務(wù)的啟動時間、結(jié)束時間,各種counter信息等。

Container日志包含ApplicationMaster日志和普通Task日志,它們均存放在Hadoop安裝目錄下的userlogs目錄中的application_xxx目錄下,其中ApplicationMaster日志目錄名稱為container_xxx_000001,普通task日志目錄名稱則為container_xxx_000002,container_xxx_000003,….,同Hadoop 1.x一樣,每個目錄下包含三個日志文件:stdout、stderr和syslog,且具體含義是一樣的。

hadoop雙節(jié)點配置完成后,顯示這個表示成功了嗎?

其實看有沒有啟動成功的辦法很簡單,在相應(yīng)的節(jié)點上利用 jps 命令查看java進程有哪些就好了。

比如在namenode節(jié)點上執(zhí)行 jps 后,如果看到結(jié)果中有NameNode,那就表示NameNode啟動成功了正在運行;在datanode上執(zhí)行 jps 后,看到有 DataNode,就表示datanode啟動成功了。

如果還要更準確、更詳細的,那可以從start腳本運行時的控制臺輸出以及l(fā)og日志文件中查看判斷是否啟動成功。

關(guān)于怎么看hadoop環(huán)境配置成功沒和怎么看hadoop是否安裝成功的介紹到此就結(jié)束了,不知道你從中找到你需要的信息了嗎 ?如果你還想了解更多這方面的信息,記得收藏關(guān)注本站。

掃描二維碼推送至手機訪問。

版權(quán)聲明:本文由飛速云SEO網(wǎng)絡(luò)優(yōu)化推廣發(fā)布,如需轉(zhuǎn)載請注明出處。

本文鏈接:http://m.thonggone.com/post/15286.html

“怎么看hadoop環(huán)境配置成功沒(怎么看hadoop是否安裝成功)” 的相關(guān)文章

軟件開發(fā)中心(海通證券軟件開發(fā)中心)

軟件開發(fā)中心(海通證券軟件開發(fā)中心)

今天給各位分享軟件開發(fā)中心的知識,其中也會對海通證券軟件開發(fā)中心進行解釋,如果能碰巧解決你現(xiàn)在面臨的問題,別忘了關(guān)注本站,現(xiàn)在開始吧!本文目錄一覽: 1、工商銀行軟件研發(fā)中心提前批之后還要筆試嗎 2、工行軟件開發(fā)中心怎樣能提升 3、全國排名前十的軟件開發(fā)培訓中心在哪里? 4、中國農(nóng)業(yè)銀行...

LOL手游怎么賣號(lol手游賣號吧)

LOL手游怎么賣號(lol手游賣號吧)

本篇文章給大家談?wù)凩OL手游怎么賣號,以及l(fā)ol手游賣號吧對應(yīng)的知識點,希望對各位有所幫助,不要忘了收藏本站喔。 本文目錄一覽: 1、英雄聯(lián)盟手游賬號好賣么 2、請問lol手游怎么租號? 3、5173怎么賣LOL號?就是在提交賬號信息前要做什么?要解除什么?密碼要嗎?怎么弄啊 4、lol...

qrs間期正常值是多少(qrs時間為多少正常值)

qrs間期正常值是多少(qrs時間為多少正常值)

本篇文章給大家談?wù)剄rs間期正常值是多少,以及qrs時間為多少正常值對應(yīng)的知識點,希望對各位有所幫助,不要忘了收藏本站喔。 本文目錄一覽: 1、請問p/QRS/T電軸正常是多少 2、心電圖正常值 3、心電圖的p-R間期正常值是多少? 請問p/QRS/T電軸正常是多少 哦,從數(shù)據(jù)上看還是正常...

一對一軟件怎么樣(一對一軟件的哪個好)

一對一軟件怎么樣(一對一軟件的哪個好)

本篇文章給大家談?wù)勔粚σ卉浖趺礃?,以及一對一軟件的哪個好對應(yīng)的知識點,希望對各位有所幫助,不要忘了收藏本站喔。 本文目錄一覽: 1、一對一視頻聊天軟件 2、一對一輔導軟件哪個用起來比較好? 3、思學通家教1對1好不好 4、國外一對一視頻聊天軟件哪個好用 一對一視頻聊天軟件 1、Sky...

URL不合法怎么辦(url有問題怎么辦)

URL不合法怎么辦(url有問題怎么辦)

今天給各位分享URL不合法怎么辦的知識,其中也會對url有問題怎么辦進行解釋,如果能碰巧解決你現(xiàn)在面臨的問題,別忘了關(guān)注本站,現(xiàn)在開始吧!本文目錄一覽: 1、URL不合法怎么辦? 2、URL不合法啥意思 3、url不合法是怎么回事? URL不合法怎么辦? URL就是能獲取你要下載的資源的下...

eclipse默認工作空間路徑設(shè)置(eclipse配置構(gòu)建路徑)

eclipse默認工作空間路徑設(shè)置(eclipse配置構(gòu)建路徑)

今天給各位分享eclipse默認工作空間路徑設(shè)置的知識,其中也會對eclipse配置構(gòu)建路徑進行解釋,如果能碰巧解決你現(xiàn)在面臨的問題,別忘了關(guān)注本站,現(xiàn)在開始吧!本文目錄一覽: 1、如何修改eclipse默認的工作空間路徑及字體顯示 2、怎么修改Eclipse默認打開路徑 3、eclipse...