AI技术百科
403浏览
0点赞
Transductive learning 直推式学习
Transductive learning (直推式学习)。直推是从观测到的特定数据到特定数据的推理。直推学习与归纳学习不同的是,训练数据和测试数据在之前都已经可以观测,我们从已知的训练数据学习特征来预测测试集标签。即使我们
11-02 16:44
367浏览
0点赞
Inductive learning 归纳式学习
Inductive learning (归纳式学习)。归纳是从已观测到的数据到一般数据的推理,归纳学习即我们平时所说的监督学习,使用带有标签的数据进行模型训练,然后使用训练好的模型预测测试集数据的标签,训练集数据不包含测
11-02 16:43
394浏览
0点赞
multiple linear regression 多元回归分析
1.与简单线性回归区别(simple linear regression) 多个自变量(x)2. 多元回归模型y=β0+β1x1+β2x2+ … +βpxp+ε其中:β0,β1,β2… βp是参数ε是误差值3. 多元回归方程E(y)=β0+β1x1+β2x2+ … +βpxp4.
11-02 16:41
412浏览
0点赞
强化学习之 score function
score function定义,就是说score function是求最大对数似然函数中让对数似然函数梯度等于0的梯度。就是说,求解最大似然问题就是求解score function2、再对参数求导,就会得到Fisher Information ,FIM是SF的负导数
11-01 22:37
396浏览
1点赞
符号主义 Symbolism
符号主义是人工智能领域中坚信数理逻辑的一个流派。数理逻辑从 19 世纪末起得以迅速发展,到 20 世纪 30 年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序 L
11-01 22:34
368浏览
0点赞
分层抽样 Stratified sampling
统计学理论中,分层抽样针对的是对一个总体(population)进行抽样的方法。尤其适用于当总体内部,子总体(subpopulations)间差异较大时。每一个 subpopulation,也称为层(stratum)。L|表示层的数量,其中 分别指
11-01 22:33
679浏览
1点赞
欠采样(undersampling)和过采样(oversampling)
当二分类数据不均衡时会影响模型的输出,此时需要对数据进行处理。1:为什么类别不平横会影响模型的输出:许多模型的输出类别是基于阈值的,例如逻辑回归中小于0.5的为反例,大于则为正例。在数据不平衡时,默认的阈
11-01 22:24
1830浏览
3点赞
SOM 自组织映射神经网络
自组织映射(Self-organizing map, SOM)通过学习输入空间中的数据,生成一个低维、离散的映射(Map),从某种程度上也可看成一种降维算法。SOM是一种无监督的人工神经网络。不同于一般神经网络基于损失函数的反向传递来
11-01 20:32
1727浏览
1点赞
Mean Squared Error 均方误差
MSE (Mean Squared Error)叫做均方误差。看公式这里的y是测试集上的。用 真实值-预测值 然后平方之后求和平均。猛着看一下这个公式是不是觉得眼熟,这不就是线性回归的损失函数嘛!!! 对,在线性回归的时候我们
11-01 18:00
480浏览
1点赞
bayesian Network 贝叶斯网
贝叶斯网络(Bayesian network),又称信念网络(Belief Network),或有向无环图模型(directed acyclic graphical model),是一种概率图模型,于1985年由Judea Pearl首先提出。它是一种模拟人类推理过程中因果关系的不
11-01 17:51
383浏览
0点赞
非凸优化 凸优化
数学中最优化问题的一般表述是求取,使,其中是n维向量,是的可行域,是上的实值函数。 凸优化 问题是指是 闭合的凸集 且是上的 凸函数 的最优化问题,这两个条件任一不满足则该问题即为非凸的最优化问题。 其中,是
11-01 17:50
382浏览
0点赞
One-shot Learning 单样本学习
在我们解决任何问题之前,我们应该精准的定义处这个问题到底是什么,下面是单样本分类问题的符号化表示: 我们的模型只获得了很少的标记的训练样本S,它有N个样本,每个相同维度的向量有一个对应的标签y再给出一个待
11-01 17:48
357浏览
2点赞
inductive bias 归纳偏置/归纳偏差
“归纳偏差”中的“偏差”容易让人想到数据估计中估计值与真实值的差别error,会让人认为“归纳偏差”是某种需要被规避的错误、误差,但事实并非如此,inductive bias在机器学习中起到的是积极作用。更合适的翻译应
11-01 17:45
703浏览
1点赞
增量学习特点 Incremental Learning
增量学习和持续学习(Continual Learning)、终身学习(Lifelong Learning)的概念大致是等价的,它们都是在连续的数据流中训练模型,随着时间的推移,更多的数据逐渐可用,同时旧数据可能由于存储限制或隐私保护等原因
11-01 13:01
349浏览
0点赞
增量学习 Incremental Learning
增量学习的能力就是能够不断地处理现实世界中连续的信息流,在吸收新知识的同时保留甚至整合、优化旧知识的能力。在机器学习领域,增量学习致力于解决模型训练的一个普遍缺陷:「灾难性遗忘(catastrophic forgetting
11-01 12:59
395浏览
0点赞
真阳率 true positive rate,假阳率 false positive rate
概念其实是从医学那边引入到机器学习里面的,所以其思维逻辑多多少少会跟做机器学习的有点出入。我们去看病,化验单或报告单会出现(+)跟(-),其分别表型阳性和阴性。比如你去检查是不是得了某种病,阳性(+)就
11-01 12:47
292浏览
1点赞
Paired t-Test 配对 t 检验
配对 t 检验是一种常见的 t 检验方法,它是指在不同条件下,对同一个整体获取的样本进行分析,以评价条件对其的影响,其中包括不同存放环境、不同测量系统等,此外,t 检验还包括单样本 t 检验、多样本 t 检验等。配
11-01 12:40
336浏览
1点赞
样本空间 Sample Space
样本空间是随机试验所有可能结果的集合,随机试验中的每个可能结果即样本点,样本空间里可以进行加法运算,可以进行数乘(除)运算,可以求平均值。如果抛掷一枚硬币,那么样本空间就是集合 {正面,反面};如果投掷
11-27 15:54
331浏览
0点赞
Base learner 基学习器
一般的基学习器可以由 Logistic回归,决策树,SVM,神经网络,贝叶斯分类器,K-近邻等构成。如果个体学习器是从同种学习算法从训练数据中产生,则可称为同质集成,此时的个体学习器也称作基学习器;集成也可以包含不
11-01 12:35
444浏览
0点赞
Gaussian kernel function 高斯核函数
高斯核函数是一种常用的核函数,它可以将有限维数据映射到高维空间,高斯核函数定义如下:上述公式涉及到两个向量的欧式距离计算,而且,高斯核函数是两个向量欧式距离的单调函数。σ 是带宽,控制径向作用范围,换
11-01 12:31