337浏览
0点赞

2.19、Python统计字母出现的频率

使用 Python 统计 26 个字母出现的频率:输入是一个很长的字符串,对其中的英文字母统计其出现的次数,其他字符忽略不处理,大写字母和小写字母当作一个字母来看。input_str=TheFirst-everOpen-waterBelugaSanctuaryWillWelcomeTwoAdorableWhalesinJune,Adorablebelugaw
306浏览
0点赞

2.20、Python bytes类型(字节流)

bytes 从名字上即可看出,其表示字节数组,每个单元表示单个字节。该类型字符串的表示方法和 str 类型类似,不过需要在前面加上b,如说下面的代码就是用单引号表示的 bytes 字符串。a=b'abc'#以字符b开头,后面跟着用单引号表示的bytes字符串type(a)当然也可以
296浏览
0点赞

2.21、Python str和bytes的转换

在 Python 3 中同时支持 str 类型和 bytes 两种类型,它们之间是可以相互转换的。如从 str 转换成 bytes,可以使用 encode() 成员函数。a=abca'abc'b=a.encode(utf-8)type(b)class'bytes'下面的代码说明了带有中文的 str 类型是如何转换成 bytes 类型的
278浏览
0点赞

2.22、Python tuple元组的用法

Python 元组和列表很像,也是一个包含多个元素的集合。与列表不同的是不能对元组中数据进行修改,如不能为元组添加数据,也不能删除元组中的某个元素。元组最常用的用法是作为函数的返回值。Python 元组的表示法元组的最简单表示法是“(元素1,元素2,…)”。这个和列
362浏览
0点赞

2.23、Python set集合精讲

和列表类似,Python 集合也是一个数据集合,其也不要求元素的类型一致,但是集合有下面两个特点:集合内元素唯一。如不可以用 1、2、1、1 组成集合,因为其包含重复的 1。集合是无序的,添加元素时不能指定位置,删除元素时也不能通过指定位置,只能通过指定值。当然也
286浏览
0点赞

2.24 Python字典

Python 字典也是一个集合,但是其每个元素包含两部分——键和值,如图1所示:图1:字典模型和列表一样的是,字典对元素个数没有限制,可以动态添加和删除元素;和列表不同的是,字典对元素自动按照某种规则排序,所以在插入元素时不能指定位置。Python 创建字典可以用多
280浏览
0点赞

2.25、Python NoneType类型

NoneType 是一类特别的类型,该类型只能有一个值 None,而且该值几乎没有任何可以做的操作。那其作用是什么呢?由于每个变量一定要有一个值,必须指向一个对象,在我们不知道其应该取什么值时就可以让其等于 None。请看下面的例子:a=Noneb=Noneid(a)#所有值为None的对
259浏览
0点赞

2.26、Python变量、对象和值的关系

前面的例子中我们已经用到了变量,如: a = 12就创建了变量,而且变量的值为 12,但对象接触的不是很多。变量就是一个符号,或者说是名字。类比现实生活,相当于是身份证。对象是一段存储空间,简单来说就是一块内存。类比现实生活就是某个具体的人。对象有很多属性,其
391浏览
1点赞

神经网络的例子

下面通过车牌自动识别的例子,来解释神经网络。所谓车牌自动识别,就是高速公路的探头拍下车牌照片,计算机识别出照片里的数字。这个例子里面,车牌照片就是输入,车牌号码就是输出,照片的清晰度可以设置权重(w)
383浏览
0点赞

神经网络的运作过程

一个神经网络的搭建,需要满足三个条件。输入和输出权重(w)和阈值(b)多层感知器的结构也就是说,需要事先画出上面出现的那张图。其中,最困难的部分就是确定权重(w)和阈值(b)。目前为止,这两个值都是主观给
358浏览
0点赞

一个简单的决策模型

单个的感知器构成了一个简单的决策模型,已经可以拿来用了。真实世界中,实际的决策模型则要复杂得多,是由多个感知器组成的多层网络。上图中,底层感知器接收外部输入,做出判断以后,再发出信号,作为上层感知器的
380浏览
0点赞

感知器的例子

下面来看一个例子。城里正在举办一年一度的游戏动漫展览,小明拿不定主意,周末要不要去参观。他决定考虑三个因素。天气:周末是否晴天?同伴:能否找到人一起去?价格:门票是否可承受?这就构成一个感知器。上面三
384浏览
0点赞

神经网络感知器

历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。1、外部刺激通过神经末梢,转化为电信号,转导到神经细胞(又叫神经元)。2、无数神经元构成神经
1812浏览
2点赞

独立同分布(iid,independently identically distribution)

独立同分布(iid,independently identically distribution)在概率统计理论中,指随机过程中,任何时刻的取值都为随机变量,如果这些随机变量服从同一分布,并且互相独立,那么这些随机变量是独立同分布。独立同分
663浏览
1点赞

特征分解 Eigendecomposition

特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。需要注意只有对可对角化矩阵才可以施以特征分解。N 维非零向量 v 是 N×N 的矩阵
563浏览
2点赞

结构风险最小化 Structural Risk Minimization

结构风险最小化(Structural Risk Minimization)是指把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排列;在每个子集中寻找最小经验风险,在子集间折中考虑经验风险和置信范围,取得实际风险的最小化。即SR
727浏览
1点赞

负对数似然 negative log-likelihood

似然函数(likelihood function)在机器学习中,似然函数是一种关于模型中参数的函数。“似然性(likelihood)”和概率(probability)词意相似,但在统计学中它们有着完全不同的含义:概率用于在已知参数的情况下,预测接
436浏览
1点赞

分类回归树 CART

分类回归树(CART,Classification And Regression Tree)也属于一种决策树,这里只介绍CART是怎样用于分类的。分类回归树是一棵二叉树,且每个非叶子节点都有两个孩子,所以对于第一棵子树其叶子节点数比非叶子节点数
462浏览
0点赞

声学模型 acoustic mode

在这个模块,我们会讨论语音识别引擎里的声学(acoustic)模型。在今天的主流语音识别系统中,声学模型是一个混合(hybrid)模型,它包括用于序列跳转的隐马尔可夫模型(HMM)和根据当前帧来预测状态的深度神经网络。HMM是
379浏览
0点赞

规则学习 Rule Learning

规则学习是可对未见示例进行判别的规则,通常是由训练数据集的学习获得,其通常是 IF-THEN 规则,属于非监督学习的一种,常用被归属为分类的一种。规则学习中的规则规则:语义明确,可描述数据分布所隐含的客观规律
今日排行
本周排行
本月排行
免费注册体验
联系我们