60行代码徒手实现深度神经网络(3)
发布时间:2019-07-25 11:44 所属栏目:19 来源:佚名
导读:设置2个隐藏层,隐藏层节点数都为5,隐藏层都使用ReLu激活函数。 #设置两个隐藏层,采用ReLu激活函数 NN=NNClassifier(n=[np.nan,5,5,1],alpha=0.02, ITERNUM=200000,gfunc='ReLu') NN.fit(X_train,y_train) #绘制
设置2个隐藏层,隐藏层节点数都为5,隐藏层都使用ReLu激活函数。
AUC得分0.99874比采用单隐藏层的最优得分0.99958有所降低,可能是模型复杂度过高,我们尝试减少隐藏层节点的个数至3以降低模型复杂度。
AUC得分0.99979,又有所提高。 和sklearn中自带的神经网络分类器进行对比。
以上试验表明,针对当前数据数据集,选择ReLu激活函数,采用双隐藏层,每个隐藏层节点数设置为3是一个不错的选择,AUC得分为0.99979。该得分高于采用CV交叉验证优化超参数后的逻辑回归模型的0.99897的AUC得分。
(编辑:ASP站长网) |
相关内容
网友评论
推荐文章
热点阅读