使用修正的线性单元(ReLU)作为非线性激活函数;在训练的时候使用Dropout技术有选择地忽视单个神经元,以避免模型过拟合;覆盖进行较大池化,避免平均池化的平均化效果;使用GPUNVIDIAGTX减少训练时间

  尔雅 智慧树 mooc


+
账户
更新
搜索
帮助
主页