AI技术百科
429浏览
0点赞
时态数据 (temporal data)
05-15 23:35
387浏览
0点赞
合成特征 (synthetic feature)
05-15 23:34
421浏览
0点赞
监督式机器学习 (supervised machine learning)
05-15 23:34
393浏览
0点赞
结构风险最小化 (SRM, structural risk minimization)
05-15 23:34
385浏览
0点赞
随机梯度下降法 (SGD, stochastic gradient descent)
05-15 23:34
373浏览
0点赞
步长 (step size)
05-15 23:34
370浏览
0点赞
平稳性 (stationarity)
05-15 23:33
339浏览
0点赞
静态模型 (static model)
05-15 23:33
590浏览
0点赞
平方损失函数 (squared loss)
05-15 23:33
676浏览
0点赞
平方合页损失函数 (squared hinge loss)
05-15 23:33
590浏览
0点赞
稀疏特征 (sparse feature)
05-15 23:33
317浏览
0点赞
序列模型 (sequence model)
05-15 23:32
375浏览
0点赞
半监督式学习 (semi-supervised learning)
05-15 23:32
1190浏览
0点赞
500浏览
1点赞
正则化率 (regularization rate)
05-15 23:32
351浏览
0点赞
正则化 (regularization)
05-15 23:31
310浏览
0点赞
回归模型 (regression model)
05-15 23:31
396浏览
0点赞
修正线性单元 Rectified Linear Unit
一、Rectified Linear Unit:sigmoid函数若用sigmoid、双曲正切或softsign这种逻辑函数来做回归,将会不可避免地遭遇函数“饱和”,即x取值过大或过小,函数值接近常数,梯度消失。一般来说神经网络小于5层可以用sig
05-15 23:31