Kuniyasu SUZAKIさんのUSENIX FAST 2013ツイートのまとめ
- nminoru_jp
- 2310
- 0
- 3
- 0
USENIX FAST Cashing セッション1。ネットワークストレージに対してクライアント側でFlash(SSD)による キャッシュをつけるが、クライアント側で障害があった場合のJournaled write back policyを導入する。
2013-02-14 04:22:12USENIX FAST Cashing セッション1。ストレージサーバでSSDを使う大規模キャッシュではOn-demand warm up の時間が馬鹿になりならない。これを改善するためにI/O logから最適化するBonfire。(ウィスコンシン大Arpaci-Dusseau研)
2013-02-14 04:49:59Bonfire によるSSDキャッシュのOn-demand warm up の関連研究はMSR-Cambridge のDynamic Cache [Narayanan OSDI 2008]
2013-02-14 04:51:23Cashing セッション3。Best Short Paper。PCM やMRAMによる不揮発メモリを使い、メモリの上のバッファーキャッシュとディスク上のジャーナリングを統合するUBJ(Union of Buffer cache and Journaling)。#FAST13J
2013-02-14 05:13:17プロテクションセッション1。Dedupを使ったストレージシステムにおけるサニタイゼーション。Dedupでは物理メディアがどのオブジェクトを参照しているのか不明。このため全てを消すが効率的にするためパーフェクトハッシュを使う。EMC製品を使って評価。#FAST13J
2013-02-14 07:28:49サニタイゼーションについてはDoDやNIST GuidelineにClearing levelとPurging levelとがあるらしい。
2013-02-14 07:29:10プロテクションセッション2。昨日のトレーニングの講演者(テネシー大のJames Plank)の発表。RAIDにおいて「ディスク全体の故障」や「セクタの故障」の両方の修復に有効なSD Codes の発表。
2013-02-14 07:51:43類似研究はIBMのPMDS codes (2012)とMicrosoft Azureで使っているLRC codes (USENIX ATC 2012 Best Paper)。
2013-02-14 07:51:58プロテクションセッション3。クラシュせずに異常動作する(fail-silent behavior)HDFSに対して、問題点を隔離、および検出するSLEEVE(Selective and Lightweight Versioning)とHARDFSの発表。(これもウィスコンシン大)
2013-02-14 08:24:13HARDFSで使うBoom filerのFalse positive (割合は百万に4)に対処する方法は興味深い。Boom filerを作る際に一つづづ試してFalse positiveになる例を避けるAction verifierを使う話だけど。これで正しいのか?
2013-02-14 08:25:23「HARDFSではCrashすることは良いこと」、で笑い。「なぜならfail-silent behaviorより動作が明らかだから。」
2013-02-14 08:25:40ビッグシステムセッション1。スパコン(Jaguar)を想定して、電力効率よくストレージノード(SSDノード)を管理するActive Flash。解析のグラフが多く、アーキテクチャがよく分からない。OpenSSD を使って実装したらしいが。 #FAST13J
2013-02-14 09:44:24FAST ビッグシステムセッション2。MapReduce を高速化するために、バックエンドストレージ管理、キャッシュ管理、Mapタスクの配置管理を一体化したMixApartの提案。のAmazon EC2で2コアの50VMを使い、性能評価。Hadoopと比較。 #FAST13J
2013-02-14 10:14:20FAST ビッグシステムセッション3。HPCでも悪意のあるインサイダーなどのため、セキュリティが必要。ここではブロック単位の暗号を提供するために効率的な鍵管理システムHorusを提案する。HorusではKey Hash Treeにより、効率的に管理する。 #FAST13J
2013-02-14 10:21:31FAST2013 二日目最初はプリンストン大&データドメイン創業者のKai Li教授のキーノート「Disruptive Innovation: Data Domain Experience」。Clayton Christensenの「イノベーションのジレンマ」との対比から。
2013-02-15 02:55:35Kai Li教授がData Domainで使った時間と会社の収益のグラフが面白い。 最初は週の半分を使っていたが、全然収益が無かった。関わる時間が減る毎の収益が増えた、で笑い。 #FAST2013J
2013-02-15 02:57:56DadaDomanで書かれたコードが100K lines/year (2002-2007)とのスライドが出たけど、これ以外にデザインやデバッグの時間も知りたい。 #FAST2013J
2013-02-15 02:58:59Dedupセッション1。Dedupされたデータが不要になった場合の消去法。問題はDedupの作成を許しながら不要データの消去、且つ、分散で行いたい。つまり分散ガベコレ。Epochと呼ぶ共存期間管理がポイント?実証はNECのHYDRAstorのバックエンドで動く#FAST2013J
2013-02-15 05:08:41Dedupセッション2。DedupではFingerprint(メタデータ)のサイズが問題になる。これを小さくするFile Recipeの提案。0のみのデータは特別に扱う、FileRecipeが辞書式圧縮で小さくなる、などの工夫。 #FAST2013J
2013-02-15 05:11:06Dedupセッション3。Inline Dedupでバックアップを取ったデータのリストアの高速化。再構成に必要なデータを効率的に先読みするForward assembly area method と呼ぶキャッシュ方で高速化する。#FAST2013J
2013-02-15 05:12:01キャッシュ上のデータ再利用する場合、キャッシュ内で位置合わせのデータ移動が必要なるが、キャッシュエリアをRing bufferして、ずらすことで対応する。これ面白い。#FAST2013J
2013-02-15 05:12:23