Hadoop 擬似分散セットアップ操作手順ガイド

Hadoop 擬似分散セットアップ操作手順ガイド

[[207661]]

1. 準備

  • /opt/ディレクトリにモジュールとソフトウェアのフォルダを作成します。
    • 操作権限を変更する(ルートユーザーに切り替える)
  1. chown -R wxt:wxt /opt/
  • その後、通常のユーザーに切り替える
  1. mkdir ソフトウェア
  2.  
  3. mkdir モジュール
  • lrzsz をインストールします (Linux でのアップロードとダウンロードに ftp を置き換えることができます)。

まずlrzszをインストールします

  1. yum -y インストール lrzsz
  • ファイルをアップロードし、rz コマンドを実行します。ファイル選択ウィンドウがポップアップ表示されます。ファイルを選択し、「OK」をクリックします。
  1. rz
  • ファイルをダウンロードし、szコマンドを実行します。
  1. サイズ

2. Hadoop環境の展開 - JDK部分

1.

  • ソフトウェアにjdkをアップロードする

2.

  • jdkをモジュールに解凍する
    • tar -zxvf jdk-7u67-linux-x64.tar.gz -C /opt/modules/

3.

  • 環境変数を変更する
    • ルートユーザーに切り替えて、vi /etc/profile ファイルを変更し、jdk 環境変数を設定します。
  1. #JAVA_HOME
  2. JAVA_HOME=/opt/modules/jdk1.7.0_67 をエクスポートします。
  3. エクスポート PATH=$PATH:$JAVA_HOME/bin

4.

  • /etc/profile をソースにしてファイルを有効にします
  • 構成が成功したことを確認する
    • java バージョン
  1. Java バージョン"1.7.0_09-icedtea"  
  2. OpenJDK ランタイム環境 (rhel-2.3.4.1.el6_3-x86_64)
  3. OpenJDK 64ビットサーバー VM (ビルド 23.2-b09、混合モード)
  • jpsコマンドはJavaプロセスを表示できる
  • $JAVA_HOMEをエコーする

3. Hadoop擬似分散環境の展開 - Hadoop部分

1.

  • hadoop-2.5.0.tar.gzファイルをソフトウェアにアップロードします。
  • ファイルをモジュールに解凍する
    • tar -zxvf hadoop-2.5.0.tar.gz -C /opt/modules/

2.

  • ディスク領域を節約するために、Hadoop ディレクトリをクリーンアップし、hadoop/share/doc ディレクトリを削除します。このコマンドを使用してdf -hを表示します

3.

  • hadoop/etc/hadoop/hadoop-env.shファイルを変更する
  • hadoop/etc/hadoop/mapred-env.shファイルを変更する
  • hadoop/etc/hadoop/yarn-env.shファイルを変更する
  • Javaのインストールパスを指定する
    • JAVA_HOME=/opt/modules/jdk1.7.0_67 をエクスポートします。

4.

  • 知らせ:
    • Hadoopの4つのコアモジュールは、4つのデフォルト設定ファイルに対応しています。
    • HadoopのデフォルトのファイルシステムであるHDFSは、ファイルシステムのアクセスポイントです。
    • Namenodeでは、初期のHadoop 1.xではマシンポート9000が使用されていましたが、現在Hadoop 2.xでは、RPC通信メカニズムを使用して、ノード間の直接的な内部通信にポート8020を使用しています。

5.

  • hadoop/etc/hadoop/core-site.xmlファイルを変更する
  1. <プロパティ>
  2. <名前>fs.defaultFS</名前>
  3. <! --bigdata-4 は私のローカルホスト名です -->  
  4. <値>hdfs://bigdata-4:8020</値>
  5. </プロパティ>
  6. <プロパティ>
  7. <名前>hadoop.tmp.dir</名前>
  8. <値>/opt/modules/hadoop-2.5.0/data/tmp</値>
  9. </プロパティ>

6.

  • 知らせ:
    • /tmp は一時保存ディレクトリを表します。システムが再起動するたびに、システムは事前に設定されたスクリプトに従ってシステム内のファイルを削除し、システムによって生成されたファイル パスを再カスタマイズします。 /tmp がクリアされ、データ ファイルのセキュリティが保証されなくなります。

7.

  • hadoop/etc/hadoop/hdfs-site.xmlファイルを変更する
    • HDFS ファイル ストレージのコピー数を指定します。デフォルトは 3 です。ここでは、単一のマシンに対して 1 に設定されています。この数はデータノードの数よりも小さくなければなりません。
  1. <プロパティ>
  2. <名前>dfs.replication</名前>
  3. <値>1</値>
  4. </プロパティ>

8.

  • hadoop/etc/hadoop/slavesファイルを変更する
    • スレーブ ノードのマシンの場所を指定し、ホスト名を追加します。
  1. ビッグデータ-4

9.

  • フォーマット名ノード
  1. bin/hdfs ネームノード -フォーマット

10.

  • 起動コマンド
    • sbin/hadoop-daemon.sh ネームノードを起動します
    • sbin/hadoop-daemon.sh データノードを起動します

11.

  • HDFS外部UIインターフェースを表示する
    • bigdata-04 または IP アドレスの後にポート番号 50070、外部通信 http dfs.namenode.http-address 50070
    • http://bigdata-4:50070 (Windows 上でホストがローカルに設定されていない場合は、設定する必要があります)
    • ページが正しく開けない場合は、ファイアウォールがオフになっているかどうかを確認してください。
      • ルートユーザーに切り替え、サービスiptablesステータス
      • ファイアウォールをオフにする chkconfig iptables off

12.

  • HDFS環境のテスト
    • フォルダーを作成します。 HDFS には、Linux と同様に、ユーザー ホーム ディレクトリの概念があります。
    • bin/hdfs dfs -mkdir -p wxt_test/iuput

13.

  • HDFS にファイルをアップロードします (任意のファイルをアップロードするだけです)
    • bin/hdfs dfs -put /opt/modules/hadoop-2.5.0/etc/hadoop/core-site.xml wxt_test/input/core-site.xml
    • アップロードは成功し、アップロードされたファイルが HDFS 外部 UI インターフェイスに表示されます。

14.

  • HDFS ファイルの読み取り
    • bin/hdfs dfs -text /core-site.xml
    • アップロードされたファイルの内容がターミナルに表示されます。

15.

  • ファイルをローカル コンピューターにダウンロードします (ダウンロード先を指定し、名前を get-site.xml に変更します)。bin/hdfs dfs -get /core-site.xml /home/wxt/Desktop/get-site.xml すると、このファイルが表示され、デスクトップに名前が変更されます。

これでHadoopの擬似分散構築は完了です。

<<:  ディープラーニングの分散トレーニングにおける大きなバッチサイズと学習率の関係をどのように理解すればよいでしょうか?

>>:  クラウドベースのデータが現代のスタートアップを最適化

推薦する

誤解を解く: データ インフラストラクチャをクラウドに移行する

新たな技術の進歩が現れるにつれ、人々はクラウド コンピューティングがすべての問題を解決する、長い間宣...

ブラックハットが中国のSEOを行き詰まらせるというのはナンセンスだ

残念なことに、フォーラムで友人が、ブラックハットは中国の SEO に致命的な欠陥をもたらすだろうと言...

weloveservers ロサンゼルスのハイエンド VPS 最終レビュー

これはおそらく、weloveservers.net が HostCat Blog に登場する最後の機...

Hostus - ホスト評価限定割引コードで10%オフ

hostus.us は、Hostus Cat の限定 10% 割引コードを開設しました。もちろん、1...

2019 年のデータセンターの 5 つのトレンド: エッジ コンピューティングが変化を推進

2019 年を迎えても、ネットワーク エッジはデータ センター分野におけるイノベーションのテクノロジ...

クラウドコンピューティング移行の5つの重要な原則

テクノロジーの進歩により、今日の人々や企業の活動方法は変化しました。人間にとっては、やりとりの方法が...

標準相互接続:無制限トラフィックCN2 VPS、20%割引、年間支払い183元から、Windowsをサポート

Standard Interconnect (arebz) が、ロサンゼルス データ センターの V...

インドに海外進出するクラウド コンピューティング企業が知っておく必要があるポリシーは何ですか?

インドにおけるクラウドコンピューティングのブームクラウド コンピューティングにより、政府、企業、消費...

ウェブサイトのランキング最適化: チャンネルページの最適化

チャンネル ページの最適化について言えば、これは実際には軽視できないものです。これは、Web サイト...

マイクロサービスアーキテクチャによる分散トランザクションソリューション

[[426291]]ビジネスの急速な発展とビジネスの複雑性の増大に伴い、従来のモノリシック アプリケ...

friendhosting: 春のプロモーション、8 つのデータセンターの無制限 VPS が 45% オフ、半年あたり 7.7 ユーロから

friendhosting (2009 年設立) からの最新のプロモーション メールには、公式が春節...

Baiduオリジナルは必ずしもウェブサイトのランキングを向上させるとは限らない

最近、多くの最適化クライアントから、私が毎日オリジナルの記事を書いているにもかかわらず、なぜウェブサ...

virtnetwork - $3.95/KVM/4 コア/2IP/1G メモリ/50G ハードディスク/2.5T トラフィック

VirtNetwork は、実は GVH のボスが立ち上げた VPS ブランドで、主に KVM 仮想...

皆様の中秋節が楽しく、家族が幸せでありますように

皆様、楽しい中秋節をお過ごし下さい!今日は役に立つ情報はありませんので、何もすることがなければ、両親...

Hostyun のロサンゼルス データ センターの簡単なレビュー - 200M 帯域幅のトリプル ネットワーク cn2 gia vps!

Hostyun は最近、米国のロサンゼルス データ センターの cn2 vps も使用しました。3 ...