AI技术百科
373浏览
0点赞
时态数据 (temporal data)
05-15 23:35
325浏览
0点赞
合成特征 (synthetic feature)
05-15 23:34
357浏览
0点赞
监督式机器学习 (supervised machine learning)
05-15 23:34
330浏览
0点赞
结构风险最小化 (SRM, structural risk minimization)
05-15 23:34
350浏览
0点赞
随机梯度下降法 (SGD, stochastic gradient descent)
05-15 23:34
340浏览
0点赞
步长 (step size)
05-15 23:34
304浏览
0点赞
平稳性 (stationarity)
05-15 23:33
290浏览
0点赞
静态模型 (static model)
05-15 23:33
523浏览
0点赞
平方损失函数 (squared loss)
05-15 23:33
640浏览
0点赞
平方合页损失函数 (squared hinge loss)
05-15 23:33
517浏览
0点赞
稀疏特征 (sparse feature)
05-15 23:33
275浏览
0点赞
序列模型 (sequence model)
05-15 23:32
302浏览
0点赞
半监督式学习 (semi-supervised learning)
05-15 23:32
1005浏览
0点赞
437浏览
1点赞
正则化率 (regularization rate)
05-15 23:32
306浏览
0点赞
正则化 (regularization)
05-15 23:31
267浏览
0点赞
回归模型 (regression model)
05-15 23:31
330浏览
0点赞
修正线性单元 Rectified Linear Unit
一、Rectified Linear Unit:sigmoid函数若用sigmoid、双曲正切或softsign这种逻辑函数来做回归,将会不可避免地遭遇函数“饱和”,即x取值过大或过小,函数值接近常数,梯度消失。一般来说神经网络小于5层可以用sig
05-15 23:31