AI技术百科
352浏览
1点赞
样本空间 Sample Space
样本空间是随机试验所有可能结果的集合,随机试验中的每个可能结果即样本点,样本空间里可以进行加法运算,可以进行数乘(除)运算,可以求平均值。如果抛掷一枚硬币,那么样本空间就是集合 {正面,反面};如果投掷
11-27 15:54
356浏览
0点赞
池化 Pooling
池化即空间池化,是卷积神经网络中用于提取特征的一种方法,通过对不同特征进行聚合统计处理以获得相对更低的维度,同时避免出现过拟合现象。池化在降低各个特征图维度的同时保留大部分重要信息,目前主要有最大化、平均化、加和等方式。常见的池化操作最常见的池化操作
05-12 00:05
310浏览
1点赞
375浏览
0点赞
326浏览
0点赞
326浏览
0点赞
博弈论 Game theory
博弈论又称对策论、赛局理论等,既是现代数学的一个新分支,也是运筹学的一个重要学科。主要研究激励结构间的相互作用,其考虑游戏中个体的预测行为和实际行为,并研究相关优化策略。
05-12 00:10
371浏览
0点赞
层次聚类 Hierarchical clustering
层次聚类是一类算法的总成,即通过从下往上不断合并或者从上往下不断分裂以形成嵌套的簇,这种层次的类通过「树状图」来表示,而 Agglomerative Clustering 算法便是其中之一。
05-12 00:11
362浏览
0点赞
404浏览
0点赞
贝叶斯概率(Bayesian Probability)
贝叶斯概率是由贝叶斯理论所提供的一种对概率的解释,它采用将概率定义为某人对一个命题信任的程度的概念。贝叶斯理论同时也建议贝叶斯定理可以用作根据新的信息导出或者更新现有的置信度的规则。
05-12 15:22
397浏览
0点赞
感知器的例子
下面来看一个例子。城里正在举办一年一度的游戏动漫展览,小明拿不定主意,周末要不要去参观。他决定考虑三个因素。天气:周末是否晴天?同伴:能否找到人一起去?价格:门票是否可承受?这就构成一个感知器。上面三
11-27 17:42
399浏览
0点赞
神经网络感知器
历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。1、外部刺激通过神经末梢,转化为电信号,转导到神经细胞(又叫神经元)。2、无数神经元构成神经
11-27 17:40
473浏览
0点赞
Gaussian kernel function 高斯核函数
高斯核函数是一种常用的核函数,它可以将有限维数据映射到高维空间,高斯核函数定义如下:上述公式涉及到两个向量的欧式距离计算,而且,高斯核函数是两个向量欧式距离的单调函数。σ 是带宽,控制径向作用范围,换
11-01 12:31
348浏览
0点赞
Base learner 基学习器
一般的基学习器可以由 Logistic回归,决策树,SVM,神经网络,贝叶斯分类器,K-近邻等构成。如果个体学习器是从同种学习算法从训练数据中产生,则可称为同质集成,此时的个体学习器也称作基学习器;集成也可以包含不
11-01 12:35
309浏览
1点赞
Paired t-Test 配对 t 检验
配对 t 检验是一种常见的 t 检验方法,它是指在不同条件下,对同一个整体获取的样本进行分析,以评价条件对其的影响,其中包括不同存放环境、不同测量系统等,此外,t 检验还包括单样本 t 检验、多样本 t 检验等。配
11-01 12:40
430浏览
1点赞
真阳率 true positive rate,假阳率 false positive rate
概念其实是从医学那边引入到机器学习里面的,所以其思维逻辑多多少少会跟做机器学习的有点出入。我们去看病,化验单或报告单会出现(+)跟(-),其分别表型阳性和阴性。比如你去检查是不是得了某种病,阳性(+)就
11-01 12:47
366浏览
0点赞
增量学习 Incremental Learning
增量学习的能力就是能够不断地处理现实世界中连续的信息流,在吸收新知识的同时保留甚至整合、优化旧知识的能力。在机器学习领域,增量学习致力于解决模型训练的一个普遍缺陷:「灾难性遗忘(catastrophic forgetting
11-01 12:59
717浏览
1点赞
增量学习特点 Incremental Learning
增量学习和持续学习(Continual Learning)、终身学习(Lifelong Learning)的概念大致是等价的,它们都是在连续的数据流中训练模型,随着时间的推移,更多的数据逐渐可用,同时旧数据可能由于存储限制或隐私保护等原因
11-01 13:01
387浏览
2点赞
inductive bias 归纳偏置/归纳偏差
“归纳偏差”中的“偏差”容易让人想到数据估计中估计值与真实值的差别error,会让人认为“归纳偏差”是某种需要被规避的错误、误差,但事实并非如此,inductive bias在机器学习中起到的是积极作用。更合适的翻译应
11-01 17:45
396浏览
0点赞
One-shot Learning 单样本学习
在我们解决任何问题之前,我们应该精准的定义处这个问题到底是什么,下面是单样本分类问题的符号化表示: 我们的模型只获得了很少的标记的训练样本S,它有N个样本,每个相同维度的向量有一个对应的标签y再给出一个待
11-01 17:48
397浏览
0点赞
非凸优化 凸优化
数学中最优化问题的一般表述是求取,使,其中是n维向量,是的可行域,是上的实值函数。 凸优化 问题是指是 闭合的凸集 且是上的 凸函数 的最优化问题,这两个条件任一不满足则该问题即为非凸的最优化问题。 其中,是
11-01 17:50