HDFSをファイルサーバーに使った事例があるようですよ
@shot6 @ryu_kobayashi @okachimachiorz いやぁ、素晴らしい! 今度、Hadoopで、ストレージって、社内で言われたら、ここを、紹介します! 自己責任で!って。:)
2010-12-14 15:37:01「ユーザーが意識しないでスケールできる」はクラウドの見方のひとつかなーと思う。プライベートクラウドサービスはちょいちょい聞きます。でもこれストレージ完全に共有じゃねーのどこがプライベートなのどこが安全なの
2010-12-14 15:37:04@ryu_kobayashi じだいは、PCS! セ○ムしてますか?PCSしてますか!
2010-12-14 15:46:03@Guutara @shot6 @ryu_kobayashi 明日のセミナーネタで。こんなホットでおいしい獲物を逃すほど草食ではございません!
2010-12-14 15:47:09@okachimachiorz @shot6 @ryu_kobayashi 社内で、確実に、連絡を、入れそうな、所が、思い浮かぶ。
2010-12-14 15:49:44@cocoatomo お、なるほど。どおりで近所に聞いても記憶にないはずです^^;明日あたり新聞にのるかなー、という感じですね。
2010-12-14 16:33:11@Guutara @shot6 @okachimachiorz @ryu_kobayashi こういう怪しいの今後タケノコのように出てきそうすね…
2010-12-14 16:33:53@mikka_tech そのときは「HDFS をファイルサーバーに」という話でした。扱いはそんなに大きくなかったですが、「三重化」と「月額? 円」とかの情報が載ってました。
2010-12-14 16:35:56@kzk_mover @shot6 @okachimachiorz @ryu_kobayashi 客寄せに、Hadoop使ってるだけで、中身は、ちがうとか。信じられない、改造いれてて、生まれかわってるとか。だよね? そのまんま、じゃ、ないよね?w
2010-12-14 17:18:04@shot6 いや、あの、某Hadoopを利用したストレージサービスみたいな発表にみんなが食いつく様子が、まるで獲物にむらがるライ(ry
2010-12-14 17:21:33Facebookのエンジニアによると、64GB RAMを搭載したHadoop HDFS NameNodeが管理できるのは8千万ブロックくらいまでらしいです。 http://j.mp/aHIgtB
2010-12-14 18:04:51仮にHadoop HDFSのブロックサイズを4KBにして、レプリカ数を3にすると、64GB RAM搭載のNameNodeなら最大で100GB格納できます! つまり細かいファイルを扱うのは無理。最低でも64MBくらいのbucket作ってそこにファイルを詰め込まないと。
2010-12-14 18:11:08@tatsuya6502 余談ですが、かつて2Tbyteのext3ファイルシステムに小さいファイルをたくさん入れてたら、12百万ファイルでi-nodeが足りなくなりました。なので1ファイル=1ブロックも使うと、8千万ブロックぐらいあっという間に食いつぶしそうです。
2010-12-14 18:17:43