帕依提提
公开数据集
AI技术百科
人工智能数据集交易平台
人工智能模型
人工智能论文
法律法规库
首页
TagableDB数据集
公开数据集
AI技术百科
+ 探索
发布数据集
标注图像
分享AI知识
TagableDB-箱包数据集
单肩包数据集
斜挎包数据集
手提包数据集
公文包数据集
双肩包数据集
钱包数据集
手拿包数据集
拉杆箱数据集
旅行包数据集
腰包数据集
TagableDB-鞋数据集
女鞋数据集
男鞋数据集
TagableDB-腕表数据集
劳力士数据集
欧米茄数据集
卡地亚数据集
万国数据集
西铁城数据集
浪琴数据集
美度数据集
汉米尔顿数据集
天梭数据集
梅花数据集
TagableDB-首饰数据集
项饰数据集
腕饰数据集
戒指/指环数据集
耳饰数据集
胸针数据集
手把件数据集
头饰数据集
串珠配珠数据集
TagableDB-水果数据集
核果类数据集
仁果类数据集
浆果类数据集
柑果类数据集
瓠果类数据集
其它类数据集
TagableDB-坚果数据集
干制坚果(种子)类数据集
干制果实类数据集
干制果肉类数据集
干制种仁类数据集
AI community
查看全部分类
AI百科
AI算法
AI高等数学
AI代码案例
AI行业应用
数据挖掘
Python教程
AI行业会议
AI科学家
AI研究机构
社区公告
数据集
Scone算力
ChatGPT
人工智能模型社区
商圈搜索
|
帖子搜索
|
回复搜索
首页
>
AI技术百科
>
搜索
563
浏览
2
点赞
结构风险最小化 Structural Risk Minimization
结构风险最小化(Structural Risk Minimization)是指把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排列;在每个子集中寻找最小经验风险,在子集间折中考虑经验风险和置信范围,取得实际风险的最小化。即SR
tianjing2020
11-02 17:07
727
浏览
1
点赞
负对数似然 negative log-likelihood
似然函数(likelihood function)在机器学习中,似然函数是一种关于模型中参数的函数。“似然性(likelihood)”和概率(probability)词意相似,但在统计学中它们有着完全不同的含义:概率用于在已知参数的情况下,预测接
tianjing2020
11-02 17:02
436
浏览
1
点赞
分类回归树 CART
分类回归树(CART,Classification And Regression Tree)也属于一种决策树,这里只介绍CART是怎样用于分类的。分类回归树是一棵二叉树,且每个非叶子节点都有两个孩子,所以对于第一棵子树其叶子节点数比非叶子节点数
tianjing2020
11-02 16:52
463
浏览
0
点赞
声学模型 acoustic mode
在这个模块,我们会讨论语音识别引擎里的声学(acoustic)模型。在今天的主流语音识别系统中,声学模型是一个混合(hybrid)模型,它包括用于序列跳转的隐马尔可夫模型(HMM)和根据当前帧来预测状态的深度神经网络。HMM是
tianjing2020
11-02 16:49
379
浏览
0
点赞
规则学习 Rule Learning
规则学习是可对未见示例进行判别的规则,通常是由训练数据集的学习获得,其通常是 IF-THEN 规则,属于非监督学习的一种,常用被归属为分类的一种。规则学习中的规则规则:语义明确,可描述数据分布所隐含的客观规律
tianjing2020
11-02 16:46
401
浏览
0
点赞
Transductive learning 直推式学习
Transductive learning (直推式学习)。直推是从观测到的特定数据到特定数据的推理。直推学习与归纳学习不同的是,训练数据和测试数据在之前都已经可以观测,我们从已知的训练数据学习特征来预测测试集标签。即使我们
tianjing2020
11-02 16:44
366
浏览
0
点赞
Inductive learning 归纳式学习
Inductive learning (归纳式学习)。归纳是从已观测到的数据到一般数据的推理,归纳学习即我们平时所说的监督学习,使用带有标签的数据进行模型训练,然后使用训练好的模型预测测试集数据的标签,训练集数据不包含测
tianjing2020
11-02 16:43
393
浏览
0
点赞
multiple linear regression 多元回归分析
1.与简单线性回归区别(simple linear regression) 多个自变量(x)2. 多元回归模型y=β0+β1x1+β2x2+ … +βpxp+ε其中:β0,β1,β2… βp是参数ε是误差值3. 多元回归方程E(y)=β0+β1x1+β2x2+ … +βpxp4.
tianjing2020
11-02 16:41
409
浏览
0
点赞
强化学习之 score function
score function定义,就是说score function是求最大对数似然函数中让对数似然函数梯度等于0的梯度。就是说,求解最大似然问题就是求解score function2、再对参数求导,就会得到Fisher Information ,FIM是SF的负导数
tianjing2020
11-01 22:37
393
浏览
1
点赞
符号主义 Symbolism
符号主义是人工智能领域中坚信数理逻辑的一个流派。数理逻辑从 19 世纪末起得以迅速发展,到 20 世纪 30 年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序 L
tianjing2020
11-01 22:34
365
浏览
0
点赞
分层抽样 Stratified sampling
统计学理论中,分层抽样针对的是对一个总体(population)进行抽样的方法。尤其适用于当总体内部,子总体(subpopulations)间差异较大时。每一个 subpopulation,也称为层(stratum)。L|表示层的数量,其中 分别指
tianjing2020
11-01 22:33
677
浏览
1
点赞
欠采样(undersampling)和过采样(oversampling)
当二分类数据不均衡时会影响模型的输出,此时需要对数据进行处理。1:为什么类别不平横会影响模型的输出:许多模型的输出类别是基于阈值的,例如逻辑回归中小于0.5的为反例,大于则为正例。在数据不平衡时,默认的阈
tianjing2020
11-01 22:24
1820
浏览
3
点赞
SOM 自组织映射神经网络
自组织映射(Self-organizing map, SOM)通过学习输入空间中的数据,生成一个低维、离散的映射(Map),从某种程度上也可看成一种降维算法。SOM是一种无监督的人工神经网络。不同于一般神经网络基于损失函数的反向传递来
tianjing2020
11-01 20:32
1718
浏览
1
点赞
Mean Squared Error 均方误差
MSE (Mean Squared Error)叫做均方误差。看公式这里的y是测试集上的。用 真实值-预测值 然后平方之后求和平均。猛着看一下这个公式是不是觉得眼熟,这不就是线性回归的损失函数嘛!!! 对,在线性回归的时候我们
tianjing2020
11-01 18:00
476
浏览
1
点赞
bayesian Network 贝叶斯网
贝叶斯网络(Bayesian network),又称信念网络(Belief Network),或有向无环图模型(directed acyclic graphical model),是一种概率图模型,于1985年由Judea Pearl首先提出。它是一种模拟人类推理过程中因果关系的不
tianjing2020
11-01 17:51
381
浏览
0
点赞
非凸优化 凸优化
数学中最优化问题的一般表述是求取,使,其中是n维向量,是的可行域,是上的实值函数。 凸优化 问题是指是 闭合的凸集 且是上的 凸函数 的最优化问题,这两个条件任一不满足则该问题即为非凸的最优化问题。 其中,是
tianjing2020
11-01 17:50
380
浏览
0
点赞
One-shot Learning 单样本学习
在我们解决任何问题之前,我们应该精准的定义处这个问题到底是什么,下面是单样本分类问题的符号化表示: 我们的模型只获得了很少的标记的训练样本S,它有N个样本,每个相同维度的向量有一个对应的标签y再给出一个待
tianjing2020
11-01 17:48
354
浏览
2
点赞
inductive bias 归纳偏置/归纳偏差
“归纳偏差”中的“偏差”容易让人想到数据估计中估计值与真实值的差别error,会让人认为“归纳偏差”是某种需要被规避的错误、误差,但事实并非如此,inductive bias在机器学习中起到的是积极作用。更合适的翻译应
tianjing2020
11-01 17:45
700
浏览
1
点赞
增量学习特点 Incremental Learning
增量学习和持续学习(Continual Learning)、终身学习(Lifelong Learning)的概念大致是等价的,它们都是在连续的数据流中训练模型,随着时间的推移,更多的数据逐渐可用,同时旧数据可能由于存储限制或隐私保护等原因
tianjing2020
11-01 13:01
347
浏览
0
点赞
增量学习 Incremental Learning
增量学习的能力就是能够不断地处理现实世界中连续的信息流,在吸收新知识的同时保留甚至整合、优化旧知识的能力。在机器学习领域,增量学习致力于解决模型训练的一个普遍缺陷:「灾难性遗忘(catastrophic forgetting
payititi-AI助手
11-01 12:59
上一页
1
2
…
9
10
11
12
13
14
15
…
23
24
下一页
今日排行
32条
1
模型
190条
2
学习
37条
3
神经网络
6条
4
log
5条
5
叶
5条
6
贝叶斯
176条
7
机器学习
176条
8
机器
13条
9
特征
本周排行
6条
1
图像
9条
2
数据集
8条
3
SET
2条
4
car
16条
5
人工智能
69条
6
知识
32条
7
模型
2条
8
arc
190条
9
学习
本月排行
6条
1
图像
9条
2
数据集
8条
3
SET
2条
4
car
16条
5
人工智能
69条
6
知识
32条
7
模型
2条
8
arc
190条
9
学习
免费注册体验
联系我们
咨询 • 合作
在线咨询
点击在线及时咨询
在线留言
提交您的问题
业务合作
15911018798
返回顶部
返回顶部