帕依提提
公开数据集
AI技术百科
人工智能数据集交易平台
人工智能模型
人工智能论文
法律法规库
首页
TagableDB数据集
公开数据集
AI技术百科
+ 探索
发布数据集
标注图像
分享AI知识
TagableDB-箱包数据集
单肩包数据集
斜挎包数据集
手提包数据集
公文包数据集
双肩包数据集
钱包数据集
手拿包数据集
拉杆箱数据集
旅行包数据集
腰包数据集
TagableDB-鞋数据集
女鞋数据集
男鞋数据集
TagableDB-腕表数据集
劳力士数据集
欧米茄数据集
卡地亚数据集
万国数据集
西铁城数据集
浪琴数据集
美度数据集
汉米尔顿数据集
天梭数据集
梅花数据集
TagableDB-首饰数据集
项饰数据集
腕饰数据集
戒指/指环数据集
耳饰数据集
胸针数据集
手把件数据集
头饰数据集
串珠配珠数据集
TagableDB-水果数据集
核果类数据集
仁果类数据集
浆果类数据集
柑果类数据集
瓠果类数据集
其它类数据集
TagableDB-坚果数据集
干制坚果(种子)类数据集
干制果实类数据集
干制果肉类数据集
干制种仁类数据集
AI community
查看全部分类
AI百科
AI算法
AI高等数学
AI代码案例
AI行业应用
数据挖掘
Python教程
AI行业会议
AI科学家
AI研究机构
社区公告
数据集
Scone算力
ChatGPT
人工智能模型社区
商圈搜索
|
帖子搜索
|
回复搜索
首页
>
AI技术百科
>
搜索
450
浏览
1
点赞
分类
回归
树 CART
分类回归树(CART,Classification And Regression Tree)也属于一种决策树,这里只介绍CART是怎样用于分类的。分类回归树是一棵二叉树,且每个非叶子节点都有两个孩子,所以对于第一棵子树其叶子节点数比非叶子节点数
tianjing2020
11-02 16:52
408
浏览
0
点赞
multiple linear regression 多元
回归
分析
1.与简单线性回归区别(simple linear regression) 多个自变量(x)2. 多元回归模型y=β0+β1x1+β2x2+ … +βpxp+ε其中:β0,β1,β2… βp是参数ε是误差值3. 多元回归方程E(y)=β0+β1x1+β2x2+ … +βpxp4.
tianjing2020
11-02 16:41
278
浏览
0
点赞
回归
模型 (regression model)
小小程序员
05-15 23:31
348
浏览
0
点赞
逻辑
回归
(logistic regression)
小小程序员
05-15 22:44
312
浏览
0
点赞
线性
回归
(linear regression)
小小程序员
05-15 22:44
333
浏览
0
点赞
最小二乘
回归
(least squares regression)
小小程序员
05-15 22:43
400
浏览
0
点赞
ElasticNet
回归
ElasticNet是Lasso和Ridge回归技术的混合体。
小小程序员
05-14 18:23
419
浏览
1
点赞
Lasso Regression套索
回归
它类似于岭回归,Lasso (Least Absolute Shrinkage and Selection Operator)也会惩罚回归系数的绝对值大小。
小小程序员
05-14 18:22
371
浏览
0
点赞
Ridge Regression岭
回归
小小程序员
05-14 18:22
373
浏览
0
点赞
Stepwise Regression逐步
回归
小小程序员
05-14 18:21
363
浏览
0
点赞
Polynomial Regression多项式
回归
对于一个回归方程,如果自变量的指数大于1,那么它就是多项式回归方程
小小程序员
05-14 18:20
320
浏览
0
点赞
Logistic Regression逻辑
回归
逻辑回归是用来计算“事件=Success”和“事件=Failure”的概率。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,我们就应该使用逻辑回归。
小小程序员
05-14 18:19
404
浏览
0
点赞
Linear Regression线性
回归
线性回归通常是人们在学习预测模型时首选的技术之一。在这种技术中,因变量是连续的,自变量可以是连续的也可以是离散的,回归线的性质是线性的。
小小程序员
05-14 17:38
355
浏览
0
点赞
梯度下降(Gradient Descent)
小小程序员
05-09 14:41
3714
浏览
9
点赞
分位数损失(Quantile Loss)
分位数损失函数在我们需要预测结果的取值区间时是一个特别有用的工具。通常情况下我们利用最小二乘回归来预测取值区间主要基于这样的假设:取值残差的方差是常数。
小小程序员
05-14 15:44
918
浏览
1
点赞
Log-Cosh损失函数
对数双曲余弦是一种比L2更为平滑的损失函数,利用双曲余弦来计算预测误差
小小程序员
05-14 15:42
433
浏览
1
点赞
Huber损失——平滑平均绝对误差
Huber损失相比于平方损失来说对于局外点不敏感,但它同样保持了可微的特性。它基于绝对误差但在误差很小的时候变成了平方误差。
小小程序员
05-14 15:40
468
浏览
0
点赞
平均绝对误差——L1损失函数
平均绝对误差(MAE)也是一种常用的回归损失函数,它是目标值与预测值之差绝对值的和,表示了预测值的平均误差幅度,而不需要考虑误差的方向
小小程序员
05-14 15:38
408
浏览
0
点赞
均方误差(MSE)
均方误差(MSE)是回归损失函数中最常用的误差,它是预测值与目标值之间差值的平方和
小小程序员
05-14 15:36
相关搜索
在
公开数据集
找 回归
在
TagableDB
找 回归
在
AI技术百科
找 回归
您是不是在找?
约9条
线性回归
今日排行
5条
1
classification
19条
2
回归
176条
3
机器
2条
4
arc
5条
5
贝叶斯
5条
6
2021
2条
7
2022
6条
8
图像
6条
9
log
本周排行
37条
1
神经网络
176条
2
机器
6条
3
log
19条
4
回归
5条
5
贝叶斯
5条
6
2021
190条
7
学习
3条
8
Mul
2条
9
car
本月排行
37条
1
神经网络
176条
2
机器
6条
3
log
19条
4
回归
5条
5
贝叶斯
5条
6
2021
190条
7
学习
3条
8
Mul
2条
9
car
免费注册体验
联系我们
咨询 • 合作
在线咨询
点击在线及时咨询
在线留言
提交您的问题
业务合作
15911018798
返回顶部
返回顶部