#freeze
-ライセンス:[[Apache Licence 2.0:http://www.apache.org/licenses/LICENSE-2.0]] [[(日本語訳):http://sourceforge.jp/projects/opensource/wiki/licenses%2FApache_License_2.0]]
-[[採用実績:http://wiki.apache.org/hadoop/PoweredBy]]

-[[Hadoop World 2010 の ビデオと PPT:http://www.cloudera.com/company/press-center/hadoop-world-nyc/agenda/]]
-[[ソフトバンク通信3社向けHadoop研修資料公開 by PFI:http://www.slideshare.net/pfi/hadoopsb]]

-[[Dhruba Borthakur, Hadoop分散ファイルシステム:アーキテクチャと設計(原題:The Hadoop Distributed File System: Architecture and Design):http://sites.google.com/site/paclearner/hdfs-design]]

-[[Open TechTalk「Hadoop Hack Night」レポート:http://techblog.yahoo.co.jp/cat206/open_techtalkhadoop_hack_night/]]
--[[Hadoop Hacks Night詳細レポート[前編]:http://gihyo.jp/news/report/2010/03/1101]]
--[[Hadoop Hacks Night詳細レポート[後編]:http://gihyo.jp/news/report/2010/03/1201]]

-配下のプロジェクト
--Hadoop Streaming ... PerlやPHP言語でMap/Reduceプログラムを作成
--Hadoop Hive ... SQL風言語でMap/Reduceプログラムを作成
--Hadoop Pig ... MapプログラムはPerl言語など、ReduceプログラムはPig Latinという独自言語で作成

-[[連載:企業で使われるHadoop:http://thinkit.co.jp/book/2010/06/04/1574]]
--[[第1回 大量データのバッチ処理を高速化するHadoop:http://thinkit.co.jp/story/2010/06/04/1576]]
--[[第2回 Hadoopがスケール・アウトする仕組み:http://thinkit.co.jp/story/2010/06/11/1608]]
--[[第3回 「データのライフ・サイクル」で考えるHadoopの使いどころ:http://thinkit.co.jp/story/2010/06/18/1619]] ... DBの種類による使いどころを丁寧に解説。RDBMS, KVS, Hadoopの使い分け
---[[図:RDBMS、Hadoop、KVSを組み合わせて使い分ける:http://thinkit.co.jp/sites/default/files/articles/159401.png]]
--[[第4回 Hadoopシステム構築のノウハウ:http://thinkit.co.jp/story/2010/06/25/1628]]

-Hadoopによる分散データ処理
--[[第1回 導入編:http://www.ibm.com/developerworks/jp/linux/library/l-hadoop-1/index.html]]
--[[第2回 拡張編:http://www.ibm.com/developerworks/jp/linux/library/l-hadoop-2/index.html]]
--[[第3回 アプリケーション開発:http://www.ibm.com/developerworks/jp/linux/library/l-hadoop-3/index.html]]

-[[高まるHadoopの導入機運、日本のHadooperが集結:http://www.itmedia.co.jp/enterprise/articles/0911/27/news006.html]]

-[[Hadoop、hBaseで構築する大規模分散データ処理システム:http://codezine.jp/article/detail/2448?p=1]]
-[[Hadoopのインストールとサンプルプログラムの実行:http://codezine.jp/article/detail/2485?p=1]]
-[[複数マシンへHadoopをインストールする:http://codezine.jp/article/detail/2699]]

-[[Hadoopを用いたクラスタコンピューティング環境の構築:http://sourceforge.jp/magazine/08/10/24/018215]]
-[[オープンソース分散システム「Hadoop」解析資料:http://preferred.jp/pub/hadoop.html]]
-[[Hadoop Streaming - naoyaのはてなダイアリー:http://d.hatena.ne.jp/naoya/20080513/1210684438]]
-[[ヤフーが検索にHadoop採用、グーグルっぽく脱皮を図る:http://jp.techcrunch.com/archives/yahoo-search-wants-to-be-more-like-google-embraces-hadoop/]]
--[[Hadoop and Distributed Computing at Yahoo!:http://developer.yahoo.net/blogs/hadoop/]]

-[[いま再注目の分散処理技術:http://www.atmarkit.co.jp/fjava/index/index_distributed.html]]
--[[MapReduceのJava実装 Apache Hadoopを使ってみた:http://www.atmarkit.co.jp/fjava/special/distributed03/distributed03_1.html]]

-[[GoogleのMapReduceアルゴリズムをJavaで理解する:http://www.atmarkit.co.jp/fjava/special/distributed01/distributed01_1.html]]

-[[hadoop-ec2でアクセス解析してみたよ!:http://journal.soffritto.org/entry/63]]

-小さいファイルを処理する際には、サーバー間通信・プログラム起動などのオーバーヘッドの方が大きくなる

-[[Hadoop構築支援サービス:http://www.littel-hadoop.jp/]]

-[[平成21年度産学連携ソフトウェア工学実践事業(高信頼クラウド実現用ソフトウェア開発(分散制御処理技術等に係るデータセンターの高信頼化に向けた実証事業))事業成果報告書 [PDF]:http://www.meti.go.jp/policy/mono_info_service/joho/downloadfiles/2010software_research/clou_dist_software.pdf]]

-[[Hadoop と RDBMS の性能を比較してみた。という論文。の感想。の翻訳。:http://blog.livedoor.jp/heitatta/archives/65113319.html]]

-[[インフラエンジニアのためのHadoop情報:http://so-net-developer.blog.so-net.ne.jp/hadoop-index]]

-[[次世代版「Hadoop」開発を進めるヤフー:http://www.computerworld.jp/topics/cloud/191108.html]]

-[[Hadoop Conference Japan 2011行ってきました:http://yskwkzhr.blogspot.com/2011/02/hadoop-conference-japan-2011.html]]
-[[Hadoop conference japan 2011に参加してきた:http://blog.restartr.com/2011/02/24/attended-hadoop-conference-japan-2011-hcj2011/]]

-[[Hadoop and HBase vs RDBMS メモ:http://onchange.blogspot.com/2009/11/hadoop-and-hbase-vs-rdbms.html]]

* システム構成 [#e2d92e1e]
-[[導入事例:http://wiki.apache.org/hadoop/PoweredBy]]

** Facebook [#j0a9b48c]
-[[FacebookによるHadoop, Hive, HBaseそして A/B Testingへの取組み:http://www.infoq.com/jp/news/2010/07/facebook-hadoop-summit]]

** eBay [#wfc8be7a]
| レイヤ | ツール |h
| 監視・アラート | Ganglia, Nagios |
| ツール・ライブラリ | HUE/Mobius, UC4, Oozie, Mahout |
| データアクセス | Pig, Hive, MQL |
| MapReduce | Java, Pipes, Scala, Python |
| Hadoop Core | Hadoop, HDFS |

** Twitter [#tbed0a88]
| レイヤ | ツール |h
| Data Products | |
| Data Analytics | Java ME, Pig, Hive, Oozie |
| Data Input | Scribe, Crane |
| Data Formats | Elephant Bird, Hadoop-LZO |
| HDFS | |

-Elephant-birdはlzo圧縮したデータをproto bufで圧縮して送る仕組み。In/OutFormat, Pig, StoreFuncなど。

-[[Hadoop at Twitter (Hadoop Summit 2010) :http://www.slideshare.net/kevinweil/hadoop-at-twitter-hadoop-summit-2010]]
-[[Hadoop and Pig at Twitter (Hadoop Summit 2010):http://www.slideshare.net/ydn/3-hadoop-pigattwitterhadoopsummit2010]]
-[[NoSQL at Twitter (NoSQL EU 2010):http://www.slideshare.net/kevinweil/nosql-at-twitter-nosql-eu-2010]]

* 関連ツール [#wc795b21]
** [[S4:http://s4.io/]] [#b7564f14]
-[[リアルタイムなHadoop? 「Real-Time MapReduce」を実現するS4、オープンソースとしてYahoo!が公開:http://www.publickey1.jp/blog/10/haoop_real-time_mapreduces4yahoo.html]]
-[[S4: the open-source distributed stream computing platform:http://www.slideshare.net/natiueno/s4-6033912]]

** [[Pig:http://pig.apache.org/]] [#m37eafeb]
-PigのDSLは、独特な言語体系を持ち、ステップ単位で集合演算を実行可能

** [[Hive:http://hive.apache.org/]] [#b23d7658]
-[[Hive Wiki:http://wiki.apache.org/hadoop/Hive]]

-Hiveはデータを構造化し、SQLライクな言語(HiveQL)でデータを扱えるようにすることができる
-半構造化されたテキストファイルをタブ区切り、カンマ区切り、正規表現でのグルーピングなどを組み合わせてカラムに分け、テーブル名、カラム名で扱えるようにできる
-テーブル定義情報はメタストアに保存される
-メタストアには組み込みDBやMySQLなどが利用可能
-パーティショニングが使える
-ユーザ定義関数の作成も可能

-基本的に単一のソース(入力データ)とシンク(出力データ)を前提として、各データに抽出系の処理を行い、演算フローをつなげていくという構成

-[[Hadoop/Hiveを用いたログ解析基盤の構築:http://ameblo.jp/principia-ca/entry-10635727790.html]]
--決まった解析をDailyやMonthlyで行う場合はスケジューリングしてHiveジョブを実行し、その結果をサマリデータベース(MySQLを使用しています)に入れ、Web UIからグラフ表示するなどしていつでも確認できるようにしている。

** [[Oozie:http://metasearch.sourceforge.jp/wiki/index.php?Oozie]] [#de39440c]
-[[1台でOozieを試してみる(CentOS + Cloudera(CDH3 beta3)):http://saburi380.blogspot.com/2010/10/1oozieubuntu-clouderacdh3-beta3.html]]

-米Yahoo! で開発、運用されている Apache Hadoop のためオープンソースのワークフローエンジン
-HDFSへの操作、Pigスクリプトの実行そしてMap/Reduce処理を含めた複雑なジョブの実行を管理することが可能

** [[Flume:http://archive.cloudera.com/cdh/3/flume/]] [#o2bebcb6]
-Flume is a distributed, reliable, and available service for efficiently collecting, aggregating, and moving large amounts of log data. Being highly configurable and very extensible means that there are many options and thus many decisions that need to be made by an operator.

-[[Flume intro-100715:http://www.slideshare.net/cloudera/flume-intro100715]]
-[[Inside Flume:http://www.slideshare.net/cloudera/inside-flume]]

-[[Flume cassandra real time log processing (日本語):http://www.slideshare.net/geminimobile/flume-cassandra-real-time-log-processing]]

-HBaseとの連携
--[[Search Analytics with Flume and HBase:http://www.slideshare.net/sematext/search-analytics-with-flume-and-hbase]]
---Metric Capture -> Log File -> Flume Agent -> Flume Collector -> Decorators -> HBase Sink -> HBase
--[[Add Efficient HBase Sink whith Flexible Event's Attributes Writing:https://issues.cloudera.org/browse/FLUME-247]]
--[[8.2.2. Introducing Sink Decorators - Flume User Guide:http://archive.cloudera.com/cdh/3/flume/UserGuide/index.html#_introducing_sink_decorators]]
 collector(15000) { [ escapedCustomDfs("xxx","yyy-%{rolltag}"), hbase("aaa", "bbb-%{rolltag}"), elasticSearch("eeee","ffff") ] }

** [[Scribe:https://github.com/facebook/scribe]] [#veb53599]
-[[Scribeを使ってアクセスログを集約する:http://d.hatena.ne.jp/perezvon/20100110/1263120529]]
-[[障害に強いscribeサーバ構成と設定:http://d.hatena.ne.jp/tagomoris/20110202/1296621133]]

* ディストリビューション [#s0a2d5ac]
-[[CDH3:http://www.cloudera.com/hadoop/]]
--[[Distribution Details:http://www.cloudera.com/hadoop-details/]]

--[[クラウデラ、Hadoopディストリビューション最新版「CDH3」の一般提供を開始:http://www.computerworld.jp/topics/cloud/191275.html]] ... 2011/4/13

* 適用の仕方 [#g9e0c401]
** ファイルが小さい場合 [#e1dfb309]
-MapReduceで小さいファイルを1つにまとめる処理を定期的に走らせる
-[[Hadoop Archives:http://hadoop.apache.org/mapreduce/docs/r0.21.0/hadoop_archives.html]] でディレクトリごとファイルをまとめる
--[[Hadoopアーカイブ:http://metasearch.sourceforge.jp/wiki/index.php?Hadoop%A5%A2%A1%BC%A5%AB%A5%A4%A5%D6]]

* 構築事例 [#b0630dfd]
-[[Hadoop〜Yahoo! JAPANの活用について〜 :http://www.slideshare.net/techblogyahoo/hadoopyahoo-japan-5857702]]
--JavaでMapReduceを書くのはマシン語を書くようなもの
--Yahoo! Inc.のジョブの60%はPigで書かれている
--[[Yahoo! TechBlog (Hadoop):http://custom.search.yahoo.co.jp/search?p=Hadoop&fr=cse&ei=utf-8&csid=sSBfYv9ZHpr.ZzxicuBVV69k761Jm.wmU02m8LU83A--&vs=techblog.yahoo.co.jp]]

-[[楽天の事例から見えた「Hadoop」構築の誤解:http://www.keyman.or.jp/3w/prd/50/30004150/?ml=w20110413]]
--現実的には、Hadoopを最適に動かすためのハードウェアは相応なスペックが必要になる
--データレプリカの配置が障害レベルに応じてきちんと分散された状態になるかどうかを意識する必要がある
--サーバをフル稼働させるために電力使用効率なども真剣に考える必要がある
--SQLに似た言語を用いてHadoopのMapReduce処理が記述可能なHiveなどを活用すれば、マーケティング部門のメンバーにも使えるようになるかもしれない

-[[ついに Apple も、Hadoop ユーザーになるようだ!:http://agilecat.wordpress.com/2010/12/04/%E3%81%A4%E3%81%84%E3%81%AB-apple-%E3%82%82%E3%80%81hadoop-%E3%83%A6%E3%83%BC%E3%82%B6%E3%83%BC%E3%81%AB%E3%81%AA%E3%82%8B%E3%82%88%E3%81%86%E3%81%A0%EF%BC%81-cloud-cloudcomputing-hadoop-jp-appl/]]

| 企業 | プロセッサ数 | データサイズ |h
| Yahoo | 4000 | 1.5PB |
| eBay | 8500 | 16PB |
| NewYorkTimes | | |
| Facebook | | |
| Twitter | | |
| Apple | | |

-[[企業システムにおける大規模データの活用と Hadoop の動向 [PDF]:https://www.obci.jp/c/document_library/get_file?p_l_id=14515&folderId=42681&name=DLFE-685.pdf]]

* 可用性向上 [#l90bc555]
** 0.20系 [#a2f0dbbd]
-Linux-HAクラスタによるマスタノードの冗長化
--[[Hadoopを用いたクラスタコンピューティング環境の構築:http://sourceforge.jp/magazine/08/10/24/018215]]
--[[Hadoopを用いたクラスタコンピューティング環境の構築:http://www.itmedia.co.jp/enterprise/articles/0811/05/news015.html]]

-メタデータのバックアップ
--0.20系にはBackupNodeの機能がない。自分でNFSマウントとかしてローカルとマウント先の2箇所に書くような仕組みを作る必要あり

** 0.21系 [#u849c5fe]
-CheckpointNode
-BackupNode

* Hadoopを気軽に試す [#rd651f69]
** Amazon Elastic MapReduce [#g4ab0199]
-100台を1時間、1000円程度

** Google BigQuery [#k9475777]


* 環境構築 [#se093593]
-[[CentOS に Hadoop, Pig, Hive, HBase をインストール:http://blog.livedoor.jp/sasata299/archives/51461548.html]]
-[[4台構成のHadoopを100分で試してみる(CentOS + Cloudera):http://saburi380.blogspot.com/2009/11/1004hadoopcentos-cloudera.html]]

** 自動構築 [#i33601a9]
-kickstart ... OSの自動インストールで使用
-Puppet ... Hadoop関連の自動インストールで使用

** NameNodeの冗長化 [#o5fff637]
-[[Hadoop HA Configuration - Cloudera:http://www.cloudera.com/blog/2009/07/hadoop-ha-configuration/]]

* HDFS [#a14a1d13]
-[[Mounting HDFS:http://wiki.apache.org/hadoop/MountableHDFS]]
-[[HDFSをマウントして利用してみる:http://blog.kirie.net/linux/hadoop/336.html]]
-[[hadoopのHDFSをRHELでマウント:http://ameblo.jp/takakusaki/entry-10720129705.html]]
-[[fuseでhdfsをmount:http://d.hatena.ne.jp/tagomoris/20110201/1296551734]]

* 開発 [#uad342bb]
-[[Java 開発 2.0: Hadoop MapReduce によるビッグ・データ分析:http://www.ibm.com/developerworks/jp/java/library/j-javadev2-15/?cmp=dw&cpb=dwjav&ct=dwrss&cr=dwrss&ccy=jp&csr=021811]]

** 開発ツール [#r4b289ce]
-[[Karmasphere Studio:http://www.karmasphere.com/Products-Information/karmasphere-studio.html]]

** Hadoop Streaming [#z443bba2]
-[[Hadoopに入門してみた - セットアップからHadoop Streaming まで:http://d.hatena.ne.jp/download_takeshi/20100906/1283811082]]
-[[Writing An Hadoop MapReduce Program In Python:http://www.michael-noll.com/tutorials/writing-an-hadoop-mapreduce-program-in-python/]]
-[[Hadoop Streaming Made Simple using Joins and Keys with Python:http://allthingshadoop.com/2010/12/16/simple-hadoop-streaming-tutorial-using-joins-and-keys-with-python/]]
-[[Hadoopでサンプル作成:http://sites.google.com/site/pcchatnetoiles/home/hadoop/hadoop-2]]
-[[Pythonで自然言語処理:http://www.slideshare.net/moaikids/python-5691518]]

* 運用 [#eea3eb93]
-[[Hadoop運用:http://metasearch.sourceforge.jp/wiki/index.php?Hadoop%B1%BF%CD%D1#p8bd3601]]

* チューニング [#xca6b3f3]
** NameNode [#hb47bcda]
-[[HDFSのスケーラビリティ:https://groups.google.com/group/hadoop-jp/browse_thread/thread/a9601a55cf9319d6?hl=ja]]
--[[HDFS Scalability:http://www.google.com/url?sa=D&q=http://www.usenix.org/publications/login/2010-04/openpdfs/shvachko.pdf]]
--[[Scalability of the Hadoop Distributed File System:http://www.google.com/url?sa=D&q=http://developer.yahoo.net/blogs/hadoop/2010/05/scalability_of_the_hadoop_dist.html]]

-- Block Sizeは128Mで運用 
-- 1ファイルは平均1.5ブロック(192MB) 
-- NameNodeでは、(1 file object + 2 block object)で1ファイル約600byteのメモリが必要 
--- 1億ファイル時には60GBのメモリがNameNodeに必要 
-- 1ファイルのサイズ平均は減少する傾向にある 
--- NameNodeのメモリ使用料が更に増加傾向 
-- BlockReportを10分おき、Heartbeatを3秒おきにDataNodeが送信するとする 
-- 10000 DataNodeの時、 
--- NameNodeは秒間639,713のブロックを処理する必要が有る 
--- NameNodeは秒間300,000のハートビートを処理する必要が有る 
-- これは、NameNodeのワークロードの約30%にあたる 


** 圧縮 [#z3c27bec]
-[[Hadoop チューニング データ圧縮:http://metasearch.sourceforge.jp/wiki/index.php?Hadoop%A5%C1%A5%E5%A1%BC%A5%CB%A5%F3%A5%B0#ha0285f7]]
-[[LZO圧縮は速い:http://d.hatena.ne.jp/maachang/20110105]]

* フレームワーク [#f8ee726a]
** [[Asakusa:https://github.com/asakusafw]] [#i6f9f123]
-[[Hadoop向け基幹バッチ分散処理ソフト「Asakusa」の全貌:http://itpro.nikkeibp.co.jp/article/COLUMN/20110322/358560/?ST=cloud]]
-[[基幹バッチ再構築のニーズは大きい、Hadoopの課題をAsakusaで解決する:http://itpro.nikkeibp.co.jp/article/Interview/20110330/358934/]]

* 導入支援サービス [#ud7c113b]
-[[大量データを対象とした分散処理基盤 バッチ処理の高速化などに用途広がる:http://it.impressbm.co.jp/e/2010/09/08/2732?page=0%2C0]]

* Hadoop用サーバ [#e8b09fde]
** [[Cloudera’s Support Team Shares Some Basic Hardware Recommendations:http://www.cloudera.com/blog/2010/03/clouderas-support-team-shares-some-basic-hardware-recommendations/]] [#ye245bb7]
-datanodes/tasktrackers
--4 1TB hard disks in a JBOD (Just a Bunch Of Disks) configuration
--2 quad core CPUs, running at least 2-2.5GHz
--16-24GBs of RAM (24-32GBs if you’re considering HBase)
--Gigabit Ethernet
-namenode/jobtracker
--1GB of namenode memory for every one million blocks stored in the distributed file system
--With 100 datanodes in a cluster, 32GBs of RAM on the namenode provides plenty of room to grow
--We also recommend having a standby machine to replace the namenode or jobtracker, in the case when one of these fails suddenly
-When you expect your Hadoop cluster to grow beyond 20 machines we recommend that the initial cluster be configured as it were to span two racks, where each rack has a top of rack gigabit switch, and those switches are connected with a 10 GigE interconnect or core switch.

-Light Processing Configuration (1U/machine): Two quad core CPUs, 8GB memory, and 4 disk drives (1TB or 2TB). Note that CPU-intensive work such as natural language processing involves loading large models into RAM before processing data and should be configured with 2GB RAM/core instead of 1GB RAM/core.
-Balanced Compute Configuration (1U/machine): Two quad core CPUs, 16 to 24GB memory, and 4 disk drives (1TB or 2TB) directly attached using the motherboard controller. These are often available as twins with two motherboards and 8 drives in a single 2U cabinet.
-Storage Heavy Configuration (2U/machine): Two quad core CPUs, 16 to 24GB memory, and 12 disk drives (1TB or 2TB). The power consumption for this type of machine starts around ~200W in idle state and can go as high as ~350W when active.
-Compute Intensive Configuration (2U/machine): Two quad core CPUs, 48-72GB memory, and 8 disk drives (1TB or 2TB). These are often used when a combination of large in-memory models and heavy reference data caching is required.

** [[Lindacloud for Hadoop:http://www.lindacloud.com/lineup/hadoop/]] [#lfdf20ca]
-[[Hadoop専用機「リンダ」を解剖:http://itpro.nikkeibp.co.jp/article/COLUMN/20110207/356944/]]
--CPU:Core2 Quad Q9550s
--RAM:8GB
--HDD:3.5inch 1TB x 4

** [[HP ProLiant SLサーバー:http://h50146.www5.hp.com/products/servers/proliant/sl_lineup.html]] [#o4e116f9]
-[[日本HP、Hadoop関連ビジネスを強化〜コンサルサービスや高密度サーバーなどを提供:http://cloud.watch.impress.co.jp/docs/news/20110404_437286.html]]
-[[日本HP、Hadoop処理を最適化するサーバ3製品と導入支援サービスを提供:http://techtarget.itmedia.co.jp/tt/news/1104/04/news06.html]]

-[[スパコン並みの性能を実現する「GPU+CPUハイブリッドソリューション」:http://special.nikkeibp.co.jp/ts/article/a0aa/107262/]]
-[[100倍のパフォーマンスも夢ではない。次世代スパコンを体現するGPU+CPUハイブリッドソリューション。:http://special.nikkeibp.co.jp/ts/article/a00i/106717/]]

-[[HP ProLiant SLサーバー:http://h50146.www5.hp.com/products/servers/proliant/sl_lineup.html]]
--[[システム構成図:http://h50146.www5.hp.com/products/servers/proliant/system_pdf/sl6500.pdf]]
--[[HP ProLiant SL335s G7:http://h50146.www5.hp.com/products/servers/proliant/sl6500/sl335sg7/]]
--[[HP ProLiant SL160s G6:http://h10010.www1.hp.com/wwpc/jp/ja/sm/WF05a/15351-15351-3896136-4236125-4236125-5045570.html]]
--[[HP ProLiant SL165s G7:http://h10010.www1.hp.com/wwpc/jp/ja/sm/WF05a/15351-15351-3896136-4236125-4236125-5045575.html]]

-[[HP Cluster Management Utility (HP-CMU):http://h50146.www5.hp.com/solutions/hpc/hardware/pccluster/cmu.html]]
--多数のLinuxサーバを効率的に構築・運用・監視するためのソフトウェア
--運用管理機能 ... 複数の演算ノードに対するファイル操作・編集、コマンド発行、ブート、シャットダウン、リブートや電源のオン/オフなどの処理を一括で実行
--クローン機能 ... 演算ノードのシステムディスクを他のノードに複製することが可能
--モニタ機能 ... 各演算ノードの負荷状況などさまざまなモニタ項目を、グラフや表で一覧可能

-[[Hadoopをインストールし使ってみる(06-APR-2011):http://h50146.www5.hp.com/products/software/oe/linux/mainstream/support/lcc/pdf/edlin4_20110405.pdf]]
-[[アーキテクチャー概要:HadoopとHP:http://h50146.www5.hp.com/products/servers/proliant/whitepaper/wp137_1104/pdf/architecture-brief_whitepaper.pdf]]

** HP DLシリーズ [#h0c58158]
-[[DL2000:http://h50146.www5.hp.com/products/servers/proliant/dl2000/]] ... namenodeとか、マスター系にはこのモデル
-[[DL180 G6:http://h10010.www1.hp.com/wwpc/jp/ja/sm/WF05a/15351-15351-3328412-3328421-3328421-3884339.html]] ... HDD容量をかせぐならこのモデル

** その他 [#ef2bb78f]
-[[radserv ZX1 - A.T.WORKS:http://online.atworks.co.jp/product/server/1u/radserv_zx1/index.html]] ... 1/2Uで3.5inch SATA 2本搭載可能

-[[日立、Hadoopに適したエントリーサーバにiSCSIブートモデルを追加:http://www.itmedia.co.jp/enterprise/articles/1102/17/news002.html]]

トップ   編集 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS