Select Language

AI社区

AI技术百科

352浏览
1点赞

样本空间 Sample Space

样本空间是随机试验所有可能结果的集合,随机试验中的每个可能结果即样本点,样本空间里可以进行加法运算,可以进行数乘(除)运算,可以求平均值。如果抛掷一枚硬币,那么样本空间就是集合 {正面,反面};如果投掷
356浏览
0点赞

池化 Pooling

池化即空间池化,是卷积神经网络中用于提取特征的一种方法,通过对不同特征进行聚合统计处理以获得相对更低的维度,同时避免出现过拟合现象。池化在降低各个特征图维度的同时保留大部分重要信息,目前主要有最大化、平均化、加和等方式。常见的池化操作最常见的池化操作
310浏览
1点赞

查准率 Precision

查准率是用于信息检索和统计分类的一个度量值,指提取的正确样本相对于提取数量的比值。相近的概念有召回率,其是指提取的样本数与总样本数量的比值。
374浏览
0点赞

错误率 Error rate

错误率是指在预测中,预测错误所占的比例
325浏览
0点赞

超限学习机 Extreme Learning Machine

超限学习机是机器学习领域的一种神经网络模型,它可以被用于求解单隐层前馈神经网络。
326浏览
0点赞

博弈论 Game theory

博弈论又称对策论、赛局理论等,既是现代数学的一个新分支,也是运筹学的一个重要学科。主要研究激励结构间的相互作用,其考虑游戏中个体的预测行为和实际行为,并研究相关优化策略。
370浏览
0点赞

层次聚类 Hierarchical clustering

层次聚类是一类算法的总成,即通过从下往上不断合并或者从上往下不断分裂以形成嵌套的簇,这种层次的类通过「树状图」来表示,而 Agglomerative Clustering 算法便是其中之一。
361浏览
0点赞

边缘化 Marginalization

边缘化是基于变量发现另一变量的方法,它通过对变量的可能值求和以判定另一个变量的边缘贡献,这个定义相对抽象
404浏览
0点赞

贝叶斯概率(Bayesian Probability)

贝叶斯概率是由贝叶斯理论所提供的一种对概率的解释,它采用将概率定义为某人对一个命题信任的程度的概念。贝叶斯理论同时也建议贝叶斯定理可以用作根据新的信息导出或者更新现有的置信度的规则。
397浏览
0点赞

感知器的例子

下面来看一个例子。城里正在举办一年一度的游戏动漫展览,小明拿不定主意,周末要不要去参观。他决定考虑三个因素。天气:周末是否晴天?同伴:能否找到人一起去?价格:门票是否可承受?这就构成一个感知器。上面三
399浏览
0点赞

神经网络感知器

历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。1、外部刺激通过神经末梢,转化为电信号,转导到神经细胞(又叫神经元)。2、无数神经元构成神经
472浏览
0点赞

Gaussian kernel function 高斯核函数

高斯核函数是一种常用的核函数,它可以将有限维数据映射到高维空间,高斯核函数定义如下:上述公式涉及到两个向量的欧式距离计算,而且,高斯核函数是两个向量欧式距离的单调函数。σ 是带宽,控制径向作用范围,换
347浏览
0点赞

Base learner 基学习器

一般的基学习器可以由 Logistic回归,决策树,SVM,神经网络,贝叶斯分类器,K-近邻等构成。如果个体学习器是从同种学习算法从训练数据中产生,则可称为同质集成,此时的个体学习器也称作基学习器;集成也可以包含不
308浏览
1点赞

Paired t-Test 配对 t 检验

配对 t 检验是一种常见的 t 检验方法,它是指在不同条件下,对同一个整体获取的样本进行分析,以评价条件对其的影响,其中包括不同存放环境、不同测量系统等,此外,t 检验还包括单样本 t 检验、多样本 t 检验等。配
429浏览
1点赞

真阳率 true positive rate,假阳率 false positive rate

概念其实是从医学那边引入到机器学习里面的,所以其思维逻辑多多少少会跟做机器学习的有点出入。我们去看病,化验单或报告单会出现(+)跟(-),其分别表型阳性和阴性。比如你去检查是不是得了某种病,阳性(+)就
366浏览
0点赞

增量学习 Incremental Learning

增量学习的能力就是能够不断地处理现实世界中连续的信息流,在吸收新知识的同时保留甚至整合、优化旧知识的能力。在机器学习领域,增量学习致力于解决模型训练的一个普遍缺陷:「灾难性遗忘(catastrophic forgetting
716浏览
1点赞

增量学习特点 Incremental Learning

增量学习和持续学习(Continual Learning)、终身学习(Lifelong Learning)的概念大致是等价的,它们都是在连续的数据流中训练模型,随着时间的推移,更多的数据逐渐可用,同时旧数据可能由于存储限制或隐私保护等原因
387浏览
2点赞

inductive bias 归纳偏置/归纳偏差

“归纳偏差”中的“偏差”容易让人想到数据估计中估计值与真实值的差别error,会让人认为“归纳偏差”是某种需要被规避的错误、误差,但事实并非如此,inductive bias在机器学习中起到的是积极作用。更合适的翻译应
396浏览
0点赞

One-shot Learning 单样本学习

在我们解决任何问题之前,我们应该精准的定义处这个问题到底是什么,下面是单样本分类问题的符号化表示: 我们的模型只获得了很少的标记的训练样本S,它有N个样本,每个相同维度的向量有一个对应的标签y再给出一个待
396浏览
0点赞

非凸优化 凸优化

数学中最优化问题的一般表述是求取,使,其中是n维向量,是的可行域,是上的实值函数。 凸优化 问题是指是 闭合的凸集 且是上的 凸函数 的最优化问题,这两个条件任一不满足则该问题即为非凸的最优化问题。 其中,是
我要发帖
百科知识
2021-05-11 23:49:38加入圈子
  • 68

    条内容
提供人工智能的一些知识分享,涉及AI算法、应用、数据、模型等内容