站長資訊網
        最全最豐富的資訊網站

        在 Linux Ubuntu 18.04/18.10上安裝Hadoop圖文詳解

        Apache Hadoop是一個開源框架,用于分布式存儲以及在商用硬件上運行的計算機集群上的大數據的分布式處理。 Hadoop將數據存儲在Hadoop分布式文件系統(HDFS)中,并使用MapReduce完成這些數據的處理。 YARN提供用于在Hadoop集群中請求和分配資源的API。

        Apache Hadoop框架由以下模塊組成:

        • Hadoop Common
        • Hadoop Distributed File System (HDFS)
        • YARN
        • MapReduce

        本文介紹如何在Ubuntu 18.04上安裝Hadoop 2版本。 我們將在Pseudo Distributed Mode中的單節點集群上安裝HDFS(Namenode和Datanode),YARN,MapReduce,這是在一臺機器上進行偽分布式安裝。 每個Hadoop守護進程(如hdfs、yarn、mapreduce等)都將作為單獨的Java進程運行。

        在本教程中,您將學習:

        • 如何為Hadoop環境添加用戶
        • 如何安裝和配置Oracle JDK
        • 如何配置無密碼SSH
        • 如何安裝Hadoop并配置必要的相關xml文件
        • 如何啟動Hadoop集群
        • 如何訪問NameNode和ResourceManager Web UI

        Namenode Web用戶界面。

        使用的軟件要求和約定

        類別 使用的要求,約定或軟件版本
        系統 Ubuntu 18.04
        軟件 Hadoop 2.8.5, Oracle JDK 1.8
        其他 以root身份或通過sudo命令以特權方式訪問Linux系統。
        約定 #  – 要求使用root權限直接以root用戶或使用sudo命令執行給定的linux命令
        $ – 要求給定的linux命令作為常規非特權用戶執行

        添加Hadoop環境的用戶

        使用以下命令創建新用戶和組:

        # add user

        linuxidc@linuxidc:~$ sudo adduser hadoop
        [sudo] linuxidc 的密碼:
        正在添加用戶”hadoop”…
        正在添加新組”hadoop” (1001)…
        正在添加新用戶”hadoop” (1001) 到組”hadoop”…
        創建主目錄”/home/hadoop”…
        正在從”/etc/skel”復制文件…
        輸入新的 UNIX 密碼:
        重新輸入新的 UNIX 密碼:
        passwd:已成功更新密碼
        正在改變 hadoop 的用戶信息
        請輸入新值,或直接敲回車鍵以使用默認值
         全名 []: Hadoop linuxidc
         房間號碼 []:
         工作電話 []:
         家庭電話 []:
         其它 []:
        這些信息是否正確? [Y/n] Y

        為Hadoop添加新用戶。

        在 Linux Ubuntu 18.04/18.10上安裝Hadoop圖文詳解

        安裝和配置Oracle JDK

        下載Java歸檔文件并解壓縮/ opt目錄下。

        # cd /opt
        # tar -xzvf jdk-8u192-linux-x64.tar.gz

        或者

        linuxidc@linuxidc:~/下載$ sudo tar -xzvf jdk-8u192-linux-x64.tar.gz -C /opt

        在 Linux Ubuntu 18.04/18.10上安裝Hadoop圖文詳解

        要將JDK 1.8 Update 192設置為默認JVM,我們將使用以下命令:

        linuxidc@linuxidc:~$ sudo update-alternatives –install /usr/bin/java java /opt/jdk1.8.0_192/bin/java 100
        [sudo] linuxidc 的密碼:
        linuxidc@linuxidc:~$ sudo update-alternatives –install /usr/bin/javac javac /opt/jdk1.8.0_192/bin/javac 100

        在 Linux Ubuntu 18.04/18.10上安裝Hadoop圖文詳解

        安裝完成后驗證java是否已成功配置,請運行以下命令:

        linuxidc@linuxidc:~$ update-alternatives –display java
        linuxidc@linuxidc:~$ update-alternatives –display javac

        在 Linux Ubuntu 18.04/18.10上安裝Hadoop圖文詳解

        配置無密碼SSH

        使用以下命令安裝Open SSH Server并打開SSH Client:

        linuxidc@linuxidc:~$ sudo apt-get install openssh-server openssh-client

        在 Linux Ubuntu 18.04/18.10上安裝Hadoop圖文詳解

        使用以下命令生成公鑰和私鑰對。 終端將提示輸入文件名。 按ENTER鍵繼續。 在該復制之后,公鑰從id_rsa.pub到authorized_keys。

        linuxidc@linuxidc:~$ ssh-keygen -t rsa
        Generating public/private rsa key pair.
        Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
        Created directory ‘/home/linuxidc/.ssh’.
        Enter passphrase (empty for no passphrase):
        Enter same passphrase again:
        Your identification has been saved in /home/linuxidc/.ssh/id_rsa.
        Your public key has been saved in /home/linuxidc/.ssh/id_rsa.pub.
        The key fingerprint is:
        SHA256:oWz3NsiiLRMdJMg7KLgQSNYQdDvXcPEszzOrWsBI3mI linuxidc@linuxidc
        The key’s randomart image is:
        +—[RSA 2048]—-+
        |+B+o . o.        |
        |+ +.o = o        |
        |.o = + o.o      |
        |= = *…+.      |
        |o. E =+.S=      |
        |. . o.oo o+      |
        |    …o.+      |
        |    oo…. .    |
        |    .+o.        |
        +—-[SHA256]—–+

        在 Linux Ubuntu 18.04/18.10上安裝Hadoop圖文詳解

        linuxidc@linuxidc:~$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

        使用以下命令驗證無密碼ssh配置:

        linuxidc@linuxidc:~$ ssh localhost

        安裝Hadoop并配置相關的xml文件

        從Apache官方網站下載并解壓縮Hadoop 2.8.5。

        linuxidc@linuxidc:~$ tar -xzvf hadoop-2.8.5.tar.gz

        設置環境變量

        通過設置以下Hadoop環境變量,為Hadoop用戶編輯bashrc:

        nano ~/.bashrc

        export HADOOP_HOME=/home/linuxidc/hadoop-2.8.5
        export HADOOP_INSTALL=$HADOOP_HOME
        export HADOOP_MAPRED_HOME=$HADOOP_HOME
        export HADOOP_COMMON_HOME=$HADOOP_HOME
        export HADOOP_HDFS_HOME=$HADOOP_HOME
        export YARN_HOME=$HADOOP_HOME
        export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
        export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
        export HADOOP_OPTS=”-Djava.library.path=$HADOOP_HOME/lib/native”

        在當前登錄會話中獲取.bashrc。

        $ source ~/.bashrc

        編輯Hadoop安裝目錄中/etc/hadoop中的hadoop-env.sh文件,并進行以下更改并檢查是否要更改任何其他配置。

        nano /etc/hadoop/hadoop-env.sh

        export JAVA_HOME=/opt/jdk1.8.0_192
        export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-“/home/linuxidc/hadoop-2.8.5/etc/hadoop”}

        更改core-site.xml文件中的配置

        使用vim編輯core-site.xml,或者您可以使用任何編輯器。 該文件位于hadoop主目錄下的/ etc / hadoop下,并添加以下條目。

        <configuration>
        <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
        </property>
        <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadooptmpdata</value>
        </property>
        </configuration>

        另外,在hadoop主文件夾下創建目錄。

        $ mkdir hadooptmpdata

        hdfs-site.xml文件中的配置更改

        編輯位于同一位置的hdfs-site.xml,即hadoop安裝目錄中的/ etc / hadoop,并在hadoop用戶主目錄下創建Namenode / Datanode目錄。

        $ mkdir -p hdfs/namenode
        $ mkdir -p hdfs/datanode

        <configuration>
        <property>
        <name>dfs.replication</name>
        <value>1</value>
        <name>dfs.name.dir</name>
        <value>file:///home/hadoop/hdfs/namenode</value>
        <name>dfs.data.dir</name>
        <value>file:///home/hadoop/hdfs/datanode</value>
        </property>
        </configuration>

        配置更改mapred-site.xml文件

        使用cp命令從mapred-site.xml.template復制mapred-site.xml,然后使用以下更改編輯位于hadoop instillation目錄下的/etc/hadoop中的mapred-site.xml。

        $ cp mapred-site.xml.template mapred-site.xml

        <configuration>
        <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
        </property>
        </configuration>

        在yarn-site.xml配置文件中更改

        使用以下條目編輯yarn-site.xml。

        <configuration>
        <property>
        <name>mapreduceyarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
        </property>
        </configuration>

        啟動Hadoop集群

        首次使用之前格式化namenode。 由于HDFS用戶運行以下命令來格式化Namenode。

        $ hdfs namenode -format

        格式化Namenode后,使用start-dfs.sh腳本啟動HDFS。

        要啟動YARN服務,您需要執行紗線啟動腳本,即start-yarn.sh

        要驗證所有Hadoop服務/守護程序是否已成功啟動,您可以使用jps命令。

        /opt/jdk1.8.0_192/bin/jps
        20035 SecondaryNameNode
        19782 DataNode
        21671 Jps
        20343 NodeManager
        19625 NameNode
        20187 ResourceManager

        現在我們可以在命令下檢查您可以使用的當前Hadoop版本:

        $ hadoop version

        或者

        $ hdfs version

        HDFS命令行界面

        要訪問HDFS并在DFS之上創建一些目錄,您可以使用HDFS CLI。

        $ hdfs dfs -mkdir /test
        $ hdfs dfs -mkdir /hadooponubuntu
        $ hdfs dfs -ls /

        從瀏覽器訪問Namenode和YARN

        您可以通過任何瀏覽器(如Google Chrome / Mozilla Firefox)訪問NameNode的Web UI和YARN Resource Manager。

        Namenode Web UI – http://<hadoop cluster hostname/IP address>:50070

        YARN資源管理器(RM)Web界面將顯示當前Hadoop集群上的所有正在運行的作業。

         資源管理器Web UI- http://<hadoop cluster hostname/IP address>:8088

        總結

        世界正在改變目前的運作方式,大數據在這一階段發揮著重要作用。 Hadoop是一個框架,可以在處理大量數據時簡化生活。 所有方面都有改進。 未來是令人興奮的。

        贊(0)
        分享到: 更多 (0)
        網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
        主站蜘蛛池模板: 久久精品免费一区二区三区| 国产小呦泬泬99精品| 亚洲第一精品福利| 亚洲国产精品无码久久一线| 精品欧美小视频在线观看| 久久精品国产精品青草app| 少妇精品无码一区二区三区 | 国产一区二区精品久久凹凸| 精品久久久久久久| 亚洲高清国产拍精品26U| 久久99精品国产麻豆婷婷| 9191精品国产免费久久| 九九精品成人免费国产片| 国产精品亚洲成在人线| 午夜欧美精品久久久久久久| 日韩视频中文字幕精品偷拍| 久久九九久精品国产免费直播| 国产精品igao视频| 99久久精品九九亚洲精品| 亚洲精品视频在线| 精品亚洲综合在线第一区| 99re热视频这里只精品| 国产精品亲子乱子伦xxxx裸| 精品视频无码一区二区三区| 日韩精品真人荷官无码| 亚洲午夜国产精品无码| 自拍偷自拍亚洲精品被多人伦好爽 | 久久精品国产亚洲AV无码麻豆 | 亚洲精品美女久久久久99小说| 久久久精品国产Sm最大网站| 久久国产精品国语对白| 久久久久久久久久久免费精品 | 最新国产精品亚洲| 四虎影视国产精品亚洲精品hd| 精品一区二区久久| 亚洲国产精品久久66| 国产成人精品久久亚洲| 国自产精品手机在线观看视 | 国产精品99久久免费观看| 成人区人妻精品一区二区不卡网站| 国产a∨精品一区二区三区不卡|