AI技术百科
388浏览
0点赞
时态数据 (temporal data)
05-15 23:35
337浏览
0点赞
合成特征 (synthetic feature)
05-15 23:34
372浏览
0点赞
监督式机器学习 (supervised machine learning)
05-15 23:34
343浏览
0点赞
结构风险最小化 (SRM, structural risk minimization)
05-15 23:34
363浏览
0点赞
随机梯度下降法 (SGD, stochastic gradient descent)
05-15 23:34
348浏览
0点赞
步长 (step size)
05-15 23:34
319浏览
0点赞
平稳性 (stationarity)
05-15 23:33
302浏览
0点赞
静态模型 (static model)
05-15 23:33
539浏览
0点赞
平方损失函数 (squared loss)
05-15 23:33
653浏览
0点赞
平方合页损失函数 (squared hinge loss)
05-15 23:33
537浏览
0点赞
稀疏特征 (sparse feature)
05-15 23:33
287浏览
0点赞
序列模型 (sequence model)
05-15 23:32
316浏览
0点赞
半监督式学习 (semi-supervised learning)
05-15 23:32
1089浏览
0点赞
450浏览
1点赞
正则化率 (regularization rate)
05-15 23:32
318浏览
0点赞
正则化 (regularization)
05-15 23:31
277浏览
0点赞
回归模型 (regression model)
05-15 23:31
345浏览
0点赞
修正线性单元 Rectified Linear Unit
一、Rectified Linear Unit:sigmoid函数若用sigmoid、双曲正切或softsign这种逻辑函数来做回归,将会不可避免地遭遇函数“饱和”,即x取值过大或过小,函数值接近常数,梯度消失。一般来说神经网络小于5层可以用sig
05-15 23:31