2013/02/14 デブサミ2013【14-D-1】600億件を数十秒で検索するクラウド規模クエリサービスBigQuery #devsumiD

Developers Summit 2013 Action! http://event.shoeisha.jp/detail/1/ <講演概要> Google BigQueryは、クラウド上の数千台というサーバーを利用した大規模並列クエリサービスです。Google社内では2006年から利用されている「Dremel」と呼ばれるインフラを社外向けサービスとして公開したもので、600億件のデータに対する検索を、インデックスをまったく利用しないフルスキャンで数十秒という圧倒的なパフォーマンスで実行可能です。このDremelで利用されているカラム型ストレージのテクノロジーの解説をはじめ、BigQueryとMapReduce/Hadoopの違いと使い分け方について掘り下げます。 続きを読む
0
知っ得@ライフハック @LifeHackEX

【知っ得】 Togetter新着 2013/02/14 デブサミ2013【14-D-7】Action!デブサミ2013オフィシャルコミュニティLT #devsumiD http://t.co/6XFnCqcS #togetter #twitter #hackEX

2013-02-10 20:20:01
どみにをん525 @Dominion525

IaaS型のGoogle Conpute Engine だと。 #devsumiD

2013-02-14 10:15:23
nyamairi @nyamairi

Google BigQuery 「Googleスピード」でビックデータを扱う #devsumiD

2013-02-14 10:17:37
かめ(かめひろ) @kamehiro17

Googleではコードを書く時にまずスケーラビリティを考える #devsumiD

2013-02-14 10:22:22
nyamairi @nyamairi

ビッグデータを即座に解析するのにMapReduce,DWHは使えない #devsumiD

2013-02-14 10:23:33
猫提督ff/kei @nekoteitoku

100PBのインデックスから価値を作り出すんだから、確かにすごいね。#devsumiD 14-D-1

2013-02-14 10:23:39
nyamairi @nyamairi

DWHの課題:コストが高い、数千万~。アドホックなデータ分析に対応しにくい。インデックスなどの事前設計が必要。 #devsumiD

2013-02-14 10:25:06
猫提督ff/kei @nekoteitoku

え、Map/Reduceって数分から数時間かけてやるの? #devsumiD 14-D-1

2013-02-14 10:27:08
nyamairi @nyamairi

MapReduce:DWHほど高価でない、RDBよりもスケールする。課題:レスポンスが遅い。数分~(「Googleスピード」でない?)。バグがあるとはじめからやり直しになる。 #devsumiD

2013-02-14 10:27:16
安心沢ガブ美 @gab_km

最近は MapReduce よりも Dremel を使っている。 #devsumiD

2013-02-14 10:28:02
どみにをん525 @Dominion525

最近ようやくクローンがではじめた。 #devsumiD

2013-02-14 10:28:35
nyamairi @nyamairi

Dremel:検索が早い、数百億件のフルスキャンが数十秒で完了する。インデックスが不要。アドホックな分析が可能。Googleでは2006年~運用している #devsumiD

2013-02-14 10:28:51
Engineer @shirara1

「Dremel」 インデックスなしの数百億件のフルスキャンが数十秒 #devsumiD

2013-02-14 10:29:16