Lecture3 Concentration Inequalities
约 1195 个字 1 张图片 预计阅读时间 6 分钟 共被读过 次
Basic Concentration Inequalities¶
Markov Inequality¶
Theorem
For any non-negative random variable \(X\) and \(a > 0\),
- 直白一点:如果一个非负随机变量的均值非常小,则该随机变量取较大值的概率也非常小。
- Markov 不等式只是用了 \(X\) 的一阶矩,所以放缩精度不大;而使用了二阶矩的 Chebyshev 不等式就要精确一些
Chebyshev’s Inequality¶
Theorem
For any random variable with bounded \(\mathbf{E}[x]\) and \(a \ge 0\), it holds that:
- 直白一点:如果一个随机变量的方差非常小,那么该随机变量取远离均值的值的概率也非常小
- 不要求随机变量非负,只要求均值有界
- 实质上是这样的:\(\mathbf{Pr}[\left|\mathrm{X} - \mathbf{E}[\mathrm{X}]\right| \ge a] \Rightarrow \mathbf{Pr}[f(\mathrm{X} - \mathbf{E}[\mathrm{X}]) \ge f(a)]\),再使用 Markov Inequality,就得到一个上界 \(\frac{\mathbf{E}[f(\mathrm{X} - \mathbf{E}[\mathrm{X}])]}{f(a)}\)。这里 \(f\) 是一个非减函数
- 尽管比 Markov 更精确,但是仍然不是非常精确;可以使用更高阶的矩来实现更高的精度;不过用矩母函数 \(\mathbf{E}[e^{\alpha \mathrm{X}}]\) 就行了,这也是下面的 bound 的证明方法。
Chernoff Bound¶
Theorem (Chernoff Bound).
Let \(X_1, X_2, \ldots, X_n\) be independent random variables such that \(X_i \sim \operatorname{Ber}(p_i)\) for each \(i = 1, 2, \ldots, n\). Let \(X = \sum_{i=1}^{n}X_i\) and denote \(\mu := \mathbf{E}[X] = \sum_{i=1}^{n}p_i\), we have
If \(0 < \delta < 1\), then we have
- 注意 \(X_i\) 必须满足是服从 Bernoulli 分布的
Proof
由 Markov Inequality 有
而
代入后求导,易证。
Corollary
For any \(0 < \delta < 1\),
(求导易证)
Hoeffding’s Inequality¶
Theorem (Hoeffding’s inequality).
Let \(X_1, X_2, \ldots, X_n\) be independent random variables where each \(X_i \in [a_i, b_i]\), for certain \(a_i \le b_i\) with probability \(1\). Assume \(\mathbf{E}[X_i]=p_i\) for every \(1 \le i \le n\). Let \(X = \sum_{i=1}^n X_i\) and \(\mu := \mathbf{E}[X] = \sum_{i=1}^{n}p_i\), then
for all \(t \ge 0\)
Lemma (Hoeffding’s lemma).
Let \(X\) be a random variable with \(\mathbf{E}[X] = 0\) and \(X \in [a, b]\). Then
- 证明:使用和 Chernoff Bound 中一样的证明方法,另外还需要凸函数的技巧(即用线性取代非线性)
Multi-Armed Bandit¶
问题描述:对于 \(k\) 臂老虎机,每抽一臂对应一个奖励,并且得到奖励的概率为 \(p_i\),\(i=1,2,\ldots,k\)。现在不知道每个 \(p_i\) 究竟是多少,给出一个策略使得 regret \(R(T) = p^*T - \sum_{t=1}^Tp_{A_t}\) 最小。这里 \(T\) 是抽的总次数,\(A_t\) 是第 \(t\) 轮抽的老虎臂编号,\(p^*\) 是最好的那个老虎臂对应的概率。
为了简便,只考虑 \(k=2\) 的情形。可以考虑 Explore Then Commit 算法:先每个老虎臂都分别抽 \(L\) 次,之后根据抽出的结果来推测哪个老虎臂对应的概率更大,之后的轮数中就只抽那一个老虎臂。
不妨假设两臂对应的概率相差 \(\epsilon\),则前 \(2L\) 轮中,regret 为 \(\epsilon L\);在后 \(T-2L\) 轮中,如果推测正确(记概率为 \(p_{correct}\)),则 regret 为 \(0\),否则为 \(\epsilon (T - 2L)\),那么总的 regret 为
只需计算 \(p_{wrong}\)。
不妨假设 \(p_1 \gt p_2\),记在第一臂上第 \(i\) 抽获奖的随机变量为 \(X_i\), 在第二臂上则为为 \(Y_i\),并设 \(Z_i = X_i - Y_i \in [-1,1]\),\(Z = \sum_{t=1}^L Z_t\),则 \(\mathbf{E}[Z_i] = p_1 - p_2 =\epsilon \ge 0,\mathbf{E}[Z] = L\epsilon\)
那么
当 \(L\) 取值为 \(O(T^{2/3})\) 时,可以让 \(R(T)\) 尽可能小。