深イイ学習=deep learningの話
Deep learning、肝はどうやって過学習防ぐかってとこだと思ってるんだけど今一よく分からない。レイヤー分けてるからって説明だけでは納得できんぞ…
2012-10-10 11:41:50.@n_hidekey 例のコンテストでも使われたdropoutというDeep learning向けの正則化は、入力層や中間層のノードを学習中に「ランダムに」取り除くことでいい感じに過学習を防いでくれるそうです。 http://t.co/iZoKxyrk
2012-10-10 11:48:19そもそもDeep learningはどういう識別器を作るかという話というよりは、どういう特徴量を作るかなので、教師あり識別に限った話でもないのでご注意を。前処理をどのように機械学習的に考えるかの1つのアプローチです。
2012-10-10 13:55:30Deep Learningが一部界隈で話題になってるさなかに,Deep Networkの話. Predicting protein res-res contacts using deep networks and boosting http://t.co/uLtqMQMt
2012-10-10 17:49:39@drumichiro チュートリアルありますね。http://t.co/3qKgzm1i http://t.co/lO55Bun0
2012-10-11 00:15:21@oasisprotein こんにちは。私もコンピュータビジョンの文脈でしかよく知らないのですが、ここのチュートリアルとかいいと思います。http://t.co/n7BR6Lan … あと、こんなページもあるようです http://t.co/nuNJH7ZR
2012-10-09 22:11:16@shock_pan_man 特徴抽出は人間にしか出来ない聖域だった→HintonらがDeep learningでRGBのrawデータ「だけ」を入力とする識別器をdeep learningで構成→ILSVRC2012でブッチぎりの最高性能→特徴量研究者涙目(←今ここ) *Tw*
2012-10-10 23:33:54今回の大規模画像認識の結果は,Neural Networkが下火になっても信じて研究を続けてきた信念の勝利であろう.その過程を思うと感銘を受けざるを得ない.
2012-10-10 13:42:43