帕依提提
公开数据集
AI技术百科
人工智能数据集交易平台
人工智能模型
人工智能论文
法律法规库
首页
TagableDB数据集
公开数据集
AI技术百科
+ 探索
发布数据集
标注图像
分享AI知识
TagableDB-箱包数据集
单肩包数据集
斜挎包数据集
手提包数据集
公文包数据集
双肩包数据集
钱包数据集
手拿包数据集
拉杆箱数据集
旅行包数据集
腰包数据集
TagableDB-鞋数据集
女鞋数据集
男鞋数据集
TagableDB-腕表数据集
劳力士数据集
欧米茄数据集
卡地亚数据集
万国数据集
西铁城数据集
浪琴数据集
美度数据集
汉米尔顿数据集
天梭数据集
梅花数据集
TagableDB-首饰数据集
项饰数据集
腕饰数据集
戒指/指环数据集
耳饰数据集
胸针数据集
手把件数据集
头饰数据集
串珠配珠数据集
TagableDB-水果数据集
核果类数据集
仁果类数据集
浆果类数据集
柑果类数据集
瓠果类数据集
其它类数据集
TagableDB-坚果数据集
干制坚果(种子)类数据集
干制果实类数据集
干制果肉类数据集
干制种仁类数据集
AI community
查看全部分类
AI百科
AI算法
AI高等数学
AI代码案例
AI行业应用
数据挖掘
Python教程
AI行业会议
AI科学家
AI研究机构
社区公告
数据集
Scone算力
ChatGPT
人工智能模型社区
商圈搜索
|
帖子搜索
|
回复搜索
首页
>
AI技术百科
>
搜索
421
浏览
0
点赞
Transductive learning 直推式学习
Transductive learning (直推式学习)。直推是从观测到的特定数据到特定数据的推理。直推学习与归纳学习不同的是,训练数据和测试数据在之前都已经可以观测,我们从已知的训练数据学习特征来预测测试集标签。即使我们
tianjing2020
11-02 16:44
378
浏览
0
点赞
Inductive learning 归纳式学习
Inductive learning (归纳式学习)。归纳是从已观测到的数据到一般数据的推理,归纳学习即我们平时所说的监督学习,使用带有标签的数据进行模型训练,然后使用训练好的模型预测测试集数据的标签,训练集数据不包含测
tianjing2020
11-02 16:43
405
浏览
0
点赞
multiple linear regression 多元回归分析
1.与简单线性回归区别(simple linear regression) 多个自变量(x)2. 多元回归模型y=β0+β1x1+β2x2+ … +βpxp+ε其中:β0,β1,β2… βp是参数ε是误差值3. 多元回归方程E(y)=β0+β1x1+β2x2+ … +βpxp4.
tianjing2020
11-02 16:41
424
浏览
0
点赞
强化学习之 score function
score function定义,就是说score function是求最大对数似然函数中让对数似然函数梯度等于0的梯度。就是说,求解最大似然问题就是求解score function2、再对参数求导,就会得到Fisher Information ,FIM是SF的负导数
tianjing2020
11-01 22:37
410
浏览
1
点赞
符号主义 Symbolism
符号主义是人工智能领域中坚信数理逻辑的一个流派。数理逻辑从 19 世纪末起得以迅速发展,到 20 世纪 30 年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序 L
tianjing2020
11-01 22:34
380
浏览
0
点赞
分层抽样 Stratified sampling
统计学理论中,分层抽样针对的是对一个总体(population)进行抽样的方法。尤其适用于当总体内部,子总体(subpopulations)间差异较大时。每一个 subpopulation,也称为层(stratum)。L|表示层的数量,其中 分别指
tianjing2020
11-01 22:33
696
浏览
1
点赞
欠采样(undersampling)和过采样(oversampling)
当二分类数据不均衡时会影响模型的输出,此时需要对数据进行处理。1:为什么类别不平横会影响模型的输出:许多模型的输出类别是基于阈值的,例如逻辑回归中小于0.5的为反例,大于则为正例。在数据不平衡时,默认的阈
tianjing2020
11-01 22:24
1895
浏览
3
点赞
SOM 自组织映射神经网络
自组织映射(Self-organizing map, SOM)通过学习输入空间中的数据,生成一个低维、离散的映射(Map),从某种程度上也可看成一种降维算法。SOM是一种无监督的人工神经网络。不同于一般神经网络基于损失函数的反向传递来
tianjing2020
11-01 20:32
1782
浏览
1
点赞
Mean Squared Error 均方误差
MSE (Mean Squared Error)叫做均方误差。看公式这里的y是测试集上的。用 真实值-预测值 然后平方之后求和平均。猛着看一下这个公式是不是觉得眼熟,这不就是线性回归的损失函数嘛!!! 对,在线性回归的时候我们
tianjing2020
11-01 18:00
491
浏览
1
点赞
bayesian Network 贝叶斯网
贝叶斯网络(Bayesian network),又称信念网络(Belief Network),或有向无环图模型(directed acyclic graphical model),是一种概率图模型,于1985年由Judea Pearl首先提出。它是一种模拟人类推理过程中因果关系的不
tianjing2020
11-01 17:51
395
浏览
0
点赞
非凸优化 凸优化
数学中最优化问题的一般表述是求取,使,其中是n维向量,是的可行域,是上的实值函数。 凸优化 问题是指是 闭合的凸集 且是上的 凸函数 的最优化问题,这两个条件任一不满足则该问题即为非凸的最优化问题。 其中,是
tianjing2020
11-01 17:50
393
浏览
0
点赞
One-shot Learning 单样本学习
在我们解决任何问题之前,我们应该精准的定义处这个问题到底是什么,下面是单样本分类问题的符号化表示: 我们的模型只获得了很少的标记的训练样本S,它有N个样本,每个相同维度的向量有一个对应的标签y再给出一个待
tianjing2020
11-01 17:48
380
浏览
2
点赞
inductive bias 归纳偏置/归纳偏差
“归纳偏差”中的“偏差”容易让人想到数据估计中估计值与真实值的差别error,会让人认为“归纳偏差”是某种需要被规避的错误、误差,但事实并非如此,inductive bias在机器学习中起到的是积极作用。更合适的翻译应
tianjing2020
11-01 17:45
712
浏览
1
点赞
增量学习特点 Incremental Learning
增量学习和持续学习(Continual Learning)、终身学习(Lifelong Learning)的概念大致是等价的,它们都是在连续的数据流中训练模型,随着时间的推移,更多的数据逐渐可用,同时旧数据可能由于存储限制或隐私保护等原因
tianjing2020
11-01 13:01
上一页
1
2
…
3
4
…
5
6
下一页
今日排行
8条
1
分类
5条
2
2021
2条
3
分割
190条
4
学习
8条
5
SET
37条
6
神经网络
3条
7
paper
7条
8
区
176条
9
机器学习
本周排行
37条
1
神经网络
5条
2
2021
19条
3
人
176条
4
机器学习
190条
5
学习
3条
6
paper
2条
7
分割
8条
8
分类
6条
9
data
本月排行
37条
1
神经网络
5条
2
2021
19条
3
人
176条
4
机器学习
190条
5
学习
3条
6
paper
2条
7
分割
8条
8
分类
6条
9
data
免费注册体验
联系我们
咨询 • 合作
在线咨询
点击在线及时咨询
在线留言
提交您的问题
业务合作
15911018798
返回顶部
返回顶部