- aonoa732384
- 1308
- 0
- 0
- 1
PythonでR - RjpWiki http://t.co/CGiBufeL RPy2の説明など。 #KyotanabeR
2012-05-12 17:14:49postgis-grass-r-py - Python scripts for PostGIS, GRASS and R. - Google Project Hosting http://t.co/dPmZ6DXf #KyotanabeR
2012-05-12 17:25:43何でもかんでもpythonで駆動しようの会 / postgis-grass-r-py - Python scripts for PostGIS, GRASS and R. - Google Codes http://t.co/F9o2Iytg #KyotanabeR
2012-05-12 17:26:15#KyotanabeR 終了~。言語な話が多くて楽しかった。これから来る時の電車の網棚に着替えの入った鞄をあわててて忘れてしまったので(汗)それを受け取ってから懇親会に合流。しかし京都は寒いなあ。
2012-05-12 17:53:48RT @langstat: [連載]フリーソフトによるデータ解析・マイニング 第79回:空間の統計学(7)空間的自己回帰モデル http://t.co/O8I1gb4g (PDF) #KyotanabeR
2012-05-12 18:20:14RT @langstat: スクリプトはここからコピペ可能 http://t.co/GYz9ulL1 RT langstat [連載]フリーソフトによるデータ解析・マイニング 第79回:空間の統計学(7)空間的自己回帰モデル http://t.co/klaamWhR (PDF) #KyotanabeR
2012-05-12 18:20:41RT @langstat: 【質疑応答】サッカー選手のパス回しのネットワーク分析。「誰が誰にパスを出したか」だけでなく、「誰が誰にパスを出そうとして、相手にインターセプトされたか」を見ると、戦術的に有益な結果が得られるのでは? #KyotanabeR なるほど。他のデータでもこういう可能性を検討しなければ。
2012-05-12 19:02:21RT @langstat: 「Random Forests不徹底入門」というものもあります。 http://t.co/6TOuHL13 RT @_akisato #KyotanabeR 「はじめてでもわかるRandomForest入門-集団学習による分類・予測-」 http://t.co/ifvJf0tI
2012-05-12 20:17:15Kyotanabe.R+ 懇親会から離脱して実家に帰宅中なう。みなさんお疲れさまでした楽しかったです。また次回も参加します……と東京からはちょっと言いにくいのが難ですがw
2012-05-12 23:00:04@dousyun こちらこそありがとうございました。ネットワーク分析を最近勉強しているので、興味深く発表を聞かせて頂きました。また、Kyotanabe.RかOsaka.Rでお会いしましょう!
2012-05-12 23:36:28最近、リアルよりも先にネットでワタクシのことを知る人が多い模様。。。ツチノコのアイコンにしようかしらw RT @shuyo おなじくなう。 RT @_akisato langstat さんの実物を初めて確認している にゃう #KyotanabeR
2012-05-13 00:32:09RT @langstat: ランダムフォレストによる特徴語抽出。生成する木の数が少ないと、特徴語がうまく抽出できない。このあたりに自覚的な先行研究は少ないので、何らかのシュミレーション実験をする必要があるかも。 #KyotanabeR
2012-05-13 00:58:11RT @langstat: 「Random Forests不徹底入門」というものもあります。 http://t.co/6TOuHL13 RT @_akisato #KyotanabeR 「はじめてでもわかるRandomForest入門-集団学習による分類・予測-」 http://t.co/ifvJf0tI
2012-05-13 01:00:23RT @langstat: スクリプトはここからコピペ可能 http://t.co/GYz9ulL1 RT langstat [連載]フリーソフトによるデータ解析・マイニング 第79回:空間の統計学(7)空間的自己回帰モデル http://t.co/klaamWhR (PDF) #KyotanabeR
2012-05-13 01:03:08解が不定になるから、n回試行して、その平均を取るという方法をよく見る(e.g. 金 2009)。だが、シュミレーションしてみると、ntreeがちゃんと統制されている場合、計算量の割に効果が少ない。 RT langstat ランダムフォレストによる特徴語抽出 #KyotanabeR
2012-05-13 01:18:39ただ、RFをn回試行した結果を箱ひげ図で表すというのは面白い。結果そのものよりも、RFによる特徴語抽出がうまくいっていないことが分かるから。今日の発表では、生成する木の数を適当に(?)決めていたけど、データ処理的には、最適な木の数も自動で推定したいところ。 #KyotanabeR
2012-05-13 01:25:20RT @langstat: 解が不定になるから、n回試行して、その平均を取るという方法をよく見る(e.g. 金 2009)。だが、シュミレーションしてみると、ntreeがちゃんと統制されている場合、計算量の割に効果が少ない。 RT langstat ランダムフォレストによる特徴語抽出 #KyotanabeR
2012-05-13 01:28:24@langstat 今日はお疲れ様でした。RFでちょっと盛り上がってますね。私も使おうと考えているので勉強しておきます。英語の誤りの研究はテキストマイニングとして電子カルテとかにも応用できそうですね。
2012-05-13 01:32:04だが、学習語彙表を作る場合のように、統計的に抽出された語彙表の妥当性を評価するのは本質的に難しい。RT langstat RFをn回試行した結果を箱ひげ図で表すというのは面白い。結果そのものよりも、RFによる特徴語抽出がうまくいっていないことが分かるから。 #KyotanabeR
2012-05-13 01:43:00RT @langstat: だが、学習語彙表を作る場合のように、統計的に抽出された語彙表の妥当性を評価するのは本質的に難しい。RT langstat RFをn回試行した結果を箱ひげ図で表すというのは面白い。結果そのものよりも、RFによる特徴語抽出がうまくいっていないことが分かるから。 #KyotanabeR
2012-05-13 05:00:07#KyotanabeR 昨日は,Kyotanabe.R+にお越しくださり,本当にありがとうございました.皆様のおかげで議論も盛り上がり,無事第一回目を終えることができました.第2回目は10月ごろを予定しています.
2012-05-13 06:41:34昨日のKyotanabe.R+は,最終的に18(+2)人の参加者があった模様.市内じゃない方の同志社なのにたくさんの方に来ていただいた.発表者も皆口をそろえて「こんなに来ると思わなかった」と言っていたのが印象的. #KyotanabeR
2012-05-13 09:58:53