思维策略网 > > 思维学习 > 机器是如何学习的

机器是如何学习的

来源:https://www.sivi8.com 时间:2024-04-30 编辑:admin 手机版

一、机器是如何学习的

机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。

二、如何通俗的理解机器学习中的VC维,shatter和break point

来源:知乎

胡科学

通俗来讲,举个例子吧。假如你想训练出这样一个模型:根据人的身高和体重来预测这个人美还是丑。这是一个简单的二分类问题。

现在想象你面前有一个平面直角坐标系。横轴(x轴)代表人的身高,纵轴(y轴)代表人的体重。

现在咱们拍脑袋决定:咱们的模型应该是线性的(就是一条直线)。通俗来讲,在你的平面直角坐标系里,你画一条线,这条线就把美人和丑人分开了。这条线就是我们最终的模型。

现在咱们要开始往平面直角坐标系放数据了。

假设咱只有两组数据(就是说咱们的坐标系里只有两个点)。这两组数据随机组合,一共有3种情况。

第一种情况:咱们有两个美人的数据

第二种情况:咱们有两个丑人的数据

第三种情况:咱们有一美一丑的数据

无论是哪一种情况,咱们都可以通过一条线把美人和丑人分开。这说明:线性的模型是完全可以shatter两组数据的。

但假如说咱们有四组数据(坐标系里有四个点)。咱们就无法保证线性模型可以完全解释所有数据的可能性了。例如咱们的数据是(180cm, 50kg)=美,(10cm, 10kg)=美,(180cm, 10kg)= 丑还有(10cm, 50kg)=丑。对于这组数据,咱无论怎么画直线,都没有办法把美和丑分开在直线两侧。这说明:线性的模型是没有办法Shatter 4组数据的。

假如说咱们有三组数据,还是总可以通过画线的方式把美/丑分开的。(大家仔细想一想)。

所以,线性模型在这种二维数据的情况下的VC dimension 是3。(因为线性模型最多能Shatter3组数据)

现在,假如说我们突然改变主意了:咱们的模型可以是非线性的。那非线性模型的VC dimension可就高了。想象一下,一条曲线是不是理论上可以把坐标系里的所有美丑都分开?

所以通俗的理解: VC dimension就是某类模型对数据数量的包容性。VC dimension越高,就说明包容性越强。

说了这么多,VC dimension到底有什么用呢?简单来说,VC dimension可以帮助我们选择更好的模型。所谓“更好”的模型,可以理解为风险(risk)更低的模型。

如何估计模型的风险呢?咱们有这个公式:

真正的风险 < 根据已有数据计算出的风险 +f(VC dimension)

f(VC dimension)是一个以VC dimension为变量的函数。咱们要选择的模型,一定要使f(VC dimension)低,这样真正的风险就会低。风险低的模型就更好。

Ps: 我上面说的可能不完全准确。只是为了尽量通俗地把概念说明白。

发布于

赵印

简单通俗的说。

VC维是模型的复杂程度,模型假设空间越大,VC维越高。

shatter和break point是VC维理论中的概念。shatter是指模型假设把数据打碎了,也就是区分开了。而break point是指当模型复杂度变的足够高了后,可以把数据打的足够散的一个数学临界点。

更重要的是,VC维的实践意义是给机器学习可学性提供了理论支撑。

1. 测试集合的loss是否和训练集合的loss接近?VC维越小,理论越接近。

2. 训练集合的loss是否足够小?VC维越大,loss理论越小。

一般工业实践中通过引入正则对模型复杂度(VC维)进行控制,平衡这两个问题的矛盾。

如果想深入理解,推荐看看腾讯广点通团队的这个技术博客:VC维的来龙去脉 | 火光摇曳 。 个人认为总结的很好。

三、求初中物理简单机械的思维导图【也就是知识归纳】

哪种简单机械 ? 杠杆 滑轮(组)等

希望帮到你

四、甚么是李群机器学习

根据“模型﹢分析”的认知互补机制和李群理论,提出了李群机器学习框架。《李群机器学习》共分11章:引论,李群覆盖学习,李群深层结构学习,李群半监督学习,李群核学习,张量学习,标架丛上的联系学习,谱估计学习,Finsler几何学习,同调边沿学习,基于范畴理论的学习方法。根据“模型﹢分析”的认知互补机制和李群理论,提出了李群机器学习框架。《李群机器学习》共分11章:引论,李群覆盖学习,李群深层结构学习,李群半监督学习,李群核学习,张量学习,标架丛上的联系学习,谱估计学习,Finsler几何学习,同调边沿学习,基于范畴理论的学习方法。根据“模型﹢分析”的认知互补机制和李群理论,提出了李群机器学习框架。《李群机器学习》共分11章:引论,李群覆盖学习,李群深层结构学习,李群半监督学习,李群核学习,张量学习,标架丛上的联系学习,谱估计学习,Finsler几何学习,同调边沿学习,基于范畴理论的学习方法。根据“模型﹢分析”的认知互补机制和李群理论,提出了李群机器学习框架。《李群机器学习》共分11章:引论,李群覆盖学习,李群深层结构学习,李群半监督学习,李群核学习,张量学习,标架丛上的联系学习,谱估计学习,Finsler几何学习,同调边沿学习,基于范畴理论的学习方法。根据“模型﹢分析”的认知互补机制和李群理论,提出了李群机器学习框架。《李群机器学习》共分11章:引论,李群覆盖学习,李群深层结构学习,李群半监督学习,李群核学习,张量学习,标架丛上的联系学习,谱估计学习,Finsler几何学习,同调边沿学习,基于范畴理论的学习方法。根据“模型﹢分析”的认知互补机制和李群理论,提出了李群机器学习框架。《李群机器学习》共分11章:引论,李群覆盖学习,李群深层结构学习,李群半监督学习,李群核学习,张量学习,标架丛上的联系学习,谱估计学习,Finsler几何学习,同调边沿学习,基于范畴理论的学习方法。

最近更新

思维学习排行榜精选