如果存在多种相反的假设, 算法会择优选择某些特定的假设。这就是归纳偏好
可以理解为算法认为 西瓜的颜色更重要,于是基于颜色的假设会先优先于其他属性。
可以是训练集有限定个, 当我们决定在坐标轴上画1个曲线时, 可以有不同的曲线,有的人可以偏陡峭, 有的可以平滑。或者某些点其实就是特例,画出线时就变成了尖尖角。
奥卡姆剃刀原则: 选择最简单的那个
假设有2种设置了不同偏好的学习算法a和b, 能证明a比b好吗?
不行。
根据NLT定理(天下没有免费的午餐, No Free Lunch Theorem)
如果样本空间足够大,且所有问题出现的机会相同,所有情况同等重要,那么任何偏好的算法,得出的实际样本总误差其实是一样的。
但是我们解决1个问题, 一定是有自己的场景的, 比如虽然颜色=黄色的西瓜好吃, 但是这种颜色的西瓜很少,不应当分配足够多的偏好给他。
提问:试述机器学习能在互联网搜索的哪些环节起作用
- 在向搜索引擎提交信息的阶段,能够从提交文本中进行信息提取,进行语义分析。
- 在搜索引擎进行信息匹配的阶段,能够提高问题与各个信息的匹配程度。
- 在向用户展示搜索结果的阶段,能够根据用户对结果感兴趣的程度进行排序。