泛化误差与经验误差:
算法不可分:若目标概念\(c not in H\),则H中不存在任何假设能将所有样本完全正确分开
概率近似:以较大的概率学得误差满足预设上限的模型
样本复杂度:sample complexity,满足PAC学习算法所需的\(m\ge poly(1/\epsilon,1/\delta,size(x),size(c))\)中的最小的m,称为学习算法的样本复杂度。
PAC学习中的H的复杂度
需要多少样本?
这里没看懂,先空着吧!
增长函数:
对分:
打散:
VC维: