563浏览
2点赞

结构风险最小化 Structural Risk Minimization

结构风险最小化(Structural Risk Minimization)是指把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排列;在每个子集中寻找最小经验风险,在子集间折中考虑经验风险和置信范围,取得实际风险的最小化。即SR
727浏览
1点赞

负对数似然 negative log-likelihood

似然函数(likelihood function)在机器学习中,似然函数是一种关于模型中参数的函数。“似然性(likelihood)”和概率(probability)词意相似,但在统计学中它们有着完全不同的含义:概率用于在已知参数的情况下,预测接
436浏览
1点赞

分类回归树 CART

分类回归树(CART,Classification And Regression Tree)也属于一种决策树,这里只介绍CART是怎样用于分类的。分类回归树是一棵二叉树,且每个非叶子节点都有两个孩子,所以对于第一棵子树其叶子节点数比非叶子节点数
463浏览
0点赞

声学模型 acoustic mode

在这个模块,我们会讨论语音识别引擎里的声学(acoustic)模型。在今天的主流语音识别系统中,声学模型是一个混合(hybrid)模型,它包括用于序列跳转的隐马尔可夫模型(HMM)和根据当前帧来预测状态的深度神经网络。HMM是
379浏览
0点赞

规则学习 Rule Learning

规则学习是可对未见示例进行判别的规则,通常是由训练数据集的学习获得,其通常是 IF-THEN 规则,属于非监督学习的一种,常用被归属为分类的一种。规则学习中的规则规则:语义明确,可描述数据分布所隐含的客观规律
401浏览
0点赞

Transductive learning 直推式学习

Transductive learning (直推式学习)。直推是从观测到的特定数据到特定数据的推理。直推学习与归纳学习不同的是,训练数据和测试数据在之前都已经可以观测,我们从已知的训练数据学习特征来预测测试集标签。即使我们
366浏览
0点赞

Inductive learning 归纳式学习

Inductive learning (归纳式学习)。归纳是从已观测到的数据到一般数据的推理,归纳学习即我们平时所说的监督学习,使用带有标签的数据进行模型训练,然后使用训练好的模型预测测试集数据的标签,训练集数据不包含测
393浏览
0点赞

multiple linear regression 多元回归分析

1.与简单线性回归区别(simple linear regression) 多个自变量(x)2. 多元回归模型y=β0+β1x1+β2x2+ … +βpxp+ε其中:β0,β1,β2… βp是参数ε是误差值3. 多元回归方程E(y)=β0+β1x1+β2x2+ … +βpxp4.
409浏览
0点赞

强化学习之 score function

score function定义,就是说score function是求最大对数似然函数中让对数似然函数梯度等于0的梯度。就是说,求解最大似然问题就是求解score function2、再对参数求导,就会得到Fisher Information ,FIM是SF的负导数
393浏览
1点赞

符号主义 Symbolism

符号主义是人工智能领域中坚信数理逻辑的一个流派。数理逻辑从 19 世纪末起得以迅速发展,到 20 世纪 30 年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序 L
365浏览
0点赞

分层抽样 Stratified sampling

统计学理论中,分层抽样针对的是对一个总体(population)进行抽样的方法。尤其适用于当总体内部,子总体(subpopulations)间差异较大时。每一个 subpopulation,也称为层(stratum)。L|表示层的数量,其中 分别指
677浏览
1点赞

欠采样(undersampling)和过采样(oversampling)

当二分类数据不均衡时会影响模型的输出,此时需要对数据进行处理。1:为什么类别不平横会影响模型的输出:许多模型的输出类别是基于阈值的,例如逻辑回归中小于0.5的为反例,大于则为正例。在数据不平衡时,默认的阈
1820浏览
3点赞

SOM 自组织映射神经网络

自组织映射(Self-organizing map, SOM)通过学习输入空间中的数据,生成一个低维、离散的映射(Map),从某种程度上也可看成一种降维算法。SOM是一种无监督的人工神经网络。不同于一般神经网络基于损失函数的反向传递来
1718浏览
1点赞

Mean Squared Error 均方误差

MSE (Mean Squared Error)叫做均方误差。看公式这里的y是测试集上的。用 真实值-预测值 然后平方之后求和平均。猛着看一下这个公式是不是觉得眼熟,这不就是线性回归的损失函数嘛!!! 对,在线性回归的时候我们
476浏览
1点赞

bayesian Network 贝叶斯网

贝叶斯网络(Bayesian network),又称信念网络(Belief Network),或有向无环图模型(directed acyclic graphical model),是一种概率图模型,于1985年由Judea Pearl首先提出。它是一种模拟人类推理过程中因果关系的不
381浏览
0点赞

非凸优化 凸优化

数学中最优化问题的一般表述是求取,使,其中是n维向量,是的可行域,是上的实值函数。 凸优化 问题是指是 闭合的凸集 且是上的 凸函数 的最优化问题,这两个条件任一不满足则该问题即为非凸的最优化问题。 其中,是
380浏览
0点赞

One-shot Learning 单样本学习

在我们解决任何问题之前,我们应该精准的定义处这个问题到底是什么,下面是单样本分类问题的符号化表示: 我们的模型只获得了很少的标记的训练样本S,它有N个样本,每个相同维度的向量有一个对应的标签y再给出一个待
354浏览
2点赞

inductive bias 归纳偏置/归纳偏差

“归纳偏差”中的“偏差”容易让人想到数据估计中估计值与真实值的差别error,会让人认为“归纳偏差”是某种需要被规避的错误、误差,但事实并非如此,inductive bias在机器学习中起到的是积极作用。更合适的翻译应
700浏览
1点赞

增量学习特点 Incremental Learning

增量学习和持续学习(Continual Learning)、终身学习(Lifelong Learning)的概念大致是等价的,它们都是在连续的数据流中训练模型,随着时间的推移,更多的数据逐渐可用,同时旧数据可能由于存储限制或隐私保护等原因
347浏览
0点赞

增量学习 Incremental Learning

增量学习的能力就是能够不断地处理现实世界中连续的信息流,在吸收新知识的同时保留甚至整合、优化旧知识的能力。在机器学习领域,增量学习致力于解决模型训练的一个普遍缺陷:「灾难性遗忘(catastrophic forgetting
今日排行
本周排行
本月排行
免费注册体验
联系我们