どんな確率分布でも(一部条件付き)、以下の不等式が成り立つ。これらの不等式は、機械学習の理解に役立つことがある。
Table of Contents
チェビシェフの不等式
期待値から離れる確率は小さい。
マルコフの不等式
確率変数が期待値より大きくなる確率は小さい。
一般的な形ではないが下の形が自明でわかりやすい。
シャーノフ・バウンド
モーメント母関数(is確率変数)が期待値より大きくなる確率はどんなtでも小さい。
この式の右辺のinfをとるとシャーノフの限界が得られる。
ホフディング(Hoeffding)の不等式
確率変数の和が期待値より大きくなる確率はとても小さい。
分母にΣが現れる理由は、シャーノフバウンドの分母による。
アズマ(Azuma)の不等式
上の式をマルチンゲールに拡張したもの。
おわりに
これらの不等式がすごいのは、ほとんどの確率分布で成立するということである。
そのため、機械学習の論文には普遍的に登場し続けている。
完全に習得できれば、理論の理解度のレベルがグッと上がるはずだ。