482浏览
0点赞

随机森林的生成

  前面提到,随机森林中有许多的分类树。我们要将一个输入样本进行分类,我们需要将输入样本输入到每棵树中进行分类。打个形象的比喻:森林中召开会议,讨论某个动物到底是老鼠还是松鼠,每棵树都要独立地发表自己
470浏览
0点赞

随机森林的相关基础知识

  随机森林看起来是很好理解,但是要完全搞明白它的工作原理,需要很多机器学习方面相关的基础知识。在本文中,我们简单谈一下,而不逐一进行赘述,如果有同学不太了解相关的知识,可以参阅其他博友的一些相关博文
734浏览
0点赞

随机森林的特点

 我们前边提到,随机森林是一种很灵活实用的方法,它有如下几个特点:在当前所有算法中,具有极好的准确率/It is unexcelled in accuracy among current algorithms;能够有效地运行在大数据集上/It runs efficient
497浏览
0点赞

什么是随机森林?

作为新兴起的、高度灵活的一种机器学习算法,随机森林(Random Forest,简称RF)拥有广泛的应用前景,从市场营销到医疗保健保险,既可以用来做市场营销模拟的建模,统计客户来源,保留和流失,也可用来预测疾病的风
529浏览
0点赞

什么是k最近邻算法(kNN)

K近邻算法又称KNN,全称是K-Nearest Neighbors算法,它是数据挖掘和机器学习中常用的学习算法,也是机器学习中最简单的分类算法之一。KNN的使用范围很广泛,在样本量足够大的前提条件之下它的准确度非常高。KNN是一
484浏览
0点赞

机器学习--SVM算法实现

一. 使用sklearn中的数据集做案例%matplotlibinlineimportnumpyasnpimportmatplotlib.pyplotaspltfromscipyimportstats#使用seaborn绘制默认值importseabornassns;sns.set()#随机来点数据fromsklearn.datasets.sampl
515浏览
0点赞

非线性SVM算法原理

对于输入空间中的非线性分类问题,可以通过非线性变换将它转化为某个维特征空间中的线性分类问题,在高维特征空间中学习线性支持向量机。由于在线性支持向量机学习的对偶问题里,目标函数和分类决策函数都只涉及实例
517浏览
1点赞

支持向量机(support vector machines, SVM)

SVM简介支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM
494浏览
1点赞

DBSCAN算法过程

DBSCAN算法的核心思想如下:从某个选定的核心点出发,不断向密度可达的区域扩张,从而得到一个包含核心点和边界点的最大化区域,区域中任意亮点密度相连考虑数据集合。DBSCAN算法的目标是将数据集合 X 分成 K 个clus
468浏览
0点赞

DBSCAN模型

考虑数据集合,首先引入以下概念与数学记号:1.∈邻域(∈ neighborhood)设,称为 x 的∈邻域。显然,2. 密度(density)设,称为 x 的密度。注意,这里的密度是一个整数值,且依赖于半径∈3. 核心点(core point)
504浏览
0点赞

基于密度的聚类方法(DBSCAN)

与均值漂移聚类类似,DBSCAN也是基于密度的聚类算法。 具体步骤: 1. 首先确定半径r和minPoints. 从一个没有被访问过的任意数据点开始,以这个点为中心,r为半径的圆内包含的点的数量是否大于或等于minPoints,如果
561浏览
0点赞

用高斯混合模型(GMM)的最大期望(EM)聚类

K-Means的缺点在于对聚类中心均值的简单使用。下面的图中的两个圆如果使用K-Means则不能作出正确的类的判断。同样的,如果数据集中的点类似下图中曲线的情况也是不能正确分类的。使用高斯混合模型(GMM)做聚类首先
493浏览
0点赞

凝聚层次聚类

层次聚类算法分为两类:自上而下和自下而上。凝聚层级聚类(HAC)是自下而上的一种聚类算法。HAC首先将每个数据点视为一个单一的簇,然后计算所有簇之间的距离来合并簇,知道所有的簇聚合成为一个簇为止。 下图为凝聚
561浏览
0点赞

神经网络训练的一般步骤

Step1:随机初始化权重;Step2:实现前向传播算法,拿到各个输入的激活函数;Step3:编码计算代价函数;Step4:实现反向传播计算激活函数的偏导数。看一下伪代码:代码中的m是训练样本的个数。Step5:使用梯度检验验
532浏览
0点赞

生成对抗网结(Generative Adversarial Network, GAN)

生成对抗网结(Generative Adversarial Network, GAN): 由Goodfellow在2014年提出,其核心思想来自于博弈论的纳什均衡”。它包含两个网络模型:一个生成模型和一个判别模型。生成模型捕捉样本数据的分布,判别模型是
423浏览
0点赞

深度信念网结(Deep Belief Nets, DBN)

深度信念网结(Deep Belief Nets, DBN): 或称深度置信网络,神经网络的一种,由多个受限玻尔兹曼机组成。既可以用于非监督学习,类似于一个自编码器,也可以用于监督学习,类似于一个分类器。从非监督学习来讲,其目
440浏览
0点赞

自动编码器(AutoEncoder)

自动编码器(AutoEncoder):是人工神经网络的一种,主要用来处理数据的压缩,其数据的压缩和解压缩函数是数据相关的、有损的、从样本中自动学习的。原理为训练神经网络,通过捕捉可以代表输入信息的最关键的因素,让
843浏览
1点赞

长短期记忆网络(Long Short-Term Memory, LSTM)

长短期记忆网络(Long Short-Term Memory, LSTM):是一种时间递归神经网络,适合用于处理和预测时间序列中间隔和延迟较长的重要事件。基于LSTM的系统可以学习翻译语言、控制机器人、图像分析、文档摘要、语音识别、
492浏览
0点赞

递归神经网络(Recurrent Neural Network, RNN)

前馈神经网络只能单独处理一个的输入,不同的输入之间被认为是相互独立没有联系的,但实际上很多时候输入之间是有序列关系的,需要使用递归神经网络(Recurrent Neural Network, RNN), 也称循环神经网络,其引入了
465浏览
0点赞

卷积神经网络(CNN)

卷积神经网络(CNN): 由Yann LeCun提出并应用在手写字体(MINST)识别上,其实质是一种多层前馈网络,擅长处理图像特别是大图像的处理和识别。
今日排行
本周排行
本月排行
免费注册体验
联系我们