HDFSをファイルサーバーに使った事例があるようですよ

HDFSはファイルサーバーに向かない(http://togetter.com/li/75188)という話をしていたところにHDFSをファイルサーバーに使った事例が出てきて(12/14)、御徒町さんが12/15の日経セミナー(http://togetter.com/li/79505)で講演のネタに使ったようです。
15
Guutara mmmmm (⁰⊖⁰) くぁwせdrftgy ふじこlp @Guutara

@shot6 @ryu_kobayashi @okachimachiorz いやぁ、素晴らしい! 今度、Hadoopで、ストレージって、社内で言われたら、ここを、紹介します! 自己責任で!って。:)

2010-12-14 15:37:01
Mikka @mikka_tech

「ユーザーが意識しないでスケールできる」はクラウドの見方のひとつかなーと思う。プライベートクラウドサービスはちょいちょい聞きます。でもこれストレージ完全に共有じゃねーのどこがプライベートなのどこが安全なの

2010-12-14 15:37:04
Ryu Kobayashi @ryu_kobayashi

@Guutara しかも、プライベートクラウドサービスですしね!安心です!

2010-12-14 15:38:17
Mikka @mikka_tech

お、プライバシーマーク対応できると書いてある。

2010-12-14 15:38:46
Mikka @mikka_tech

これでうちに変なお声掛け来ないといいな…とりあえず日経産業新聞確認したい

2010-12-14 15:39:36
Guutara mmmmm (⁰⊖⁰) くぁwせdrftgy ふじこlp @Guutara

@ryu_kobayashi じだいは、PCS! セ○ムしてますか?PCSしてますか!

2010-12-14 15:46:03
御徒町@Serializable @okachimachiorz

@Guutara @shot6 @ryu_kobayashi 明日のセミナーネタで。こんなホットでおいしい獲物を逃すほど草食ではございません!

2010-12-14 15:47:09
Guutara mmmmm (⁰⊖⁰) くぁwせdrftgy ふじこlp @Guutara

@okachimachiorz @shot6 @ryu_kobayashi 社内で、確実に、連絡を、入れそうな、所が、思い浮かぶ。

2010-12-14 15:49:44
Mikka @mikka_tech

HDFSをファイルサーバーとして利用、て事例あったはず。あれはNameNodeが冗長化されてるぽかった

2010-12-14 15:49:50
tomo🐧@learning @cocoatomo

@mikka_tech 日経産業に載ったのは数週間前ですよ。昔の新聞を図書館とかに探しに行くんですか?

2010-12-14 16:23:27
Mikka @mikka_tech

@cocoatomo お、なるほど。どおりで近所に聞いても記憶にないはずです^^;明日あたり新聞にのるかなー、という感じですね。

2010-12-14 16:33:11
Kazuki Ohta @kzk_mover

@Guutara @shot6 @okachimachiorz @ryu_kobayashi こういう怪しいの今後タケノコのように出てきそうすね…

2010-12-14 16:33:53
tomo🐧@learning @cocoatomo

@mikka_tech そのときは「HDFS をファイルサーバーに」という話でした。扱いはそんなに大きくなかったですが、「三重化」と「月額? 円」とかの情報が載ってました。

2010-12-14 16:35:56
Guutara mmmmm (⁰⊖⁰) くぁwせdrftgy ふじこlp @Guutara

@kzk_mover @shot6 @okachimachiorz @ryu_kobayashi 客寄せに、Hadoop使ってるだけで、中身は、ちがうとか。信じられない、改造いれてて、生まれかわってるとか。だよね? そのまんま、じゃ、ないよね?w

2010-12-14 17:18:04
Keisuke Kawamura @kkawamura

@shot6 いや、あの、某Hadoopを利用したストレージサービスみたいな発表にみんなが食いつく様子が、まるで獲物にむらがるライ(ry

2010-12-14 17:21:33
Tatsuya Kawano @tatsuya6502

Facebookのエンジニアによると、64GB RAMを搭載したHadoop HDFS NameNodeが管理できるのは8千万ブロックくらいまでらしいです。 http://j.mp/aHIgtB

2010-12-14 18:04:51
Tatsuya Kawano @tatsuya6502

仮にHadoop HDFSのブロックサイズを4KBにして、レプリカ数を3にすると、64GB RAM搭載のNameNodeなら最大で100GB格納できます! つまり細かいファイルを扱うのは無理。最低でも64MBくらいのbucket作ってそこにファイルを詰め込まないと。

2010-12-14 18:11:08
NAO @nemoton

ネットワークかぁ・・・NameNodeのボトルネックの最初に挙げられちゃうんだね。

2010-12-14 18:12:34
Tatsuya Kawano @tatsuya6502

@yutuki_r なんか、このネタでずいぶん引っ張れそうですねー。

2010-12-14 18:13:07
豊月 @yutuki_r

@tatsuya6502 確かに。あのできあがった図が、非常にインパクトありますし、すごさが良くわかりますしね

2010-12-14 18:15:41
M.Mouri @m_mouri

@tatsuya6502 余談ですが、かつて2Tbyteのext3ファイルシステムに小さいファイルをたくさん入れてたら、12百万ファイルでi-nodeが足りなくなりました。なので1ファイル=1ブロックも使うと、8千万ブロックぐらいあっという間に食いつぶしそうです。

2010-12-14 18:17:43