機械学習に於けるルベーグ積分の必要性について

統計・機械学習応用に於けるルベーグ積分(測度論)の必要性
1
MKT @KMKTo

恥ずかしながらまだまだ最小二乗法が大活躍する自分のフィールドで測度論の御利益を得るのはまだ先な感触であります。ただその時のために進めたい。

2021-12-11 00:34:02
@tmaehara

たとえば非負で期待値有限の確率変数 X について P(X > t) って t → ∞ で 0 に収束しそうですよね。ルベーグって唱えておけばごく簡単に 1/t より早いオーダで収束することが示せたりします。

2021-12-11 01:39:32
@tmaehara

「include <stdio.h> っておまじないをしたら printf, scanf ができるようになる」と同じノリで、「ルベーグ積分っておまじないをしたら comp.tmu.ac.jp/yosihiro/teach… の最初の定理群が使えるようになる」って思っておくくらいが応用系の人にとっての程よい距離感じゃないかしら。

2021-12-11 02:15:22
@tmaehara

ルベーグ積分の必要性と,ルベーグ積分を勉強する必要性を分けるべき

2021-12-11 03:57:32
@tmaehara

応用分野における数学的な議論は大体 ZFC の上に成り立ってるんだけど,そういう議論をする人全員が ZFC を勉強する必要はないし,ZFC そのものが不要って話にもならないでしょや.

2021-12-11 04:08:11
@tmaehara

ルベーグ積分も同じでいいでしょや.統計や機械学習などの確率変数が絡む議論は大体ルベーグ積分(or 測度論)の上に成り立っているけど,全員がルベーグ積分を勉強する必要はないし,ルベーグ積分そのものが不要って話にもならない.

2021-12-11 04:13:07
@tmaehara

統計・機械学習応用をする人がルベーグ積分についてどこまで知ってたらいいのかは割と明確で,期待値が満たす性質を一通り知っていればいいと思ってる.これは期待値の性質を公理にしたときに測度論的確率論が(概ね)復元できることに基づく.

2021-12-11 04:22:28