吴恩达《深度学习》系列课 - 26.神经网络表示#深度学习

1008 11
评论 11
发布
暂无评论
合集 · 吴恩达-深度学习 (179集)
第26集  

吴恩达《深度学习》系列课 - 26.神经网络表示#深度学习

05:15
第27集  

吴恩达《深度学习》系列课 - 27.计算神经网络的输出#深度学习

09:58
第28集  

吴恩达《深度学习》系列课 - 28.多个样本的向量化#深度学习

09:06
第29集  

吴恩达《深度学习》系列课 - 29.向量化实现的解释#深度学习

07:38
第30集  

吴恩达《深度学习》系列课 - 30.激活函数#深度学习

10:57
第31集  

吴恩达《深度学习》系列课 - 31.为什么需要非线性激活函数?#深度学习

05:36
第32集  

吴恩达《深度学习》系列课 - 32.激活函数的导数#深度学习

07:58
第33集  

吴恩达《深度学习》系列课 - 33.神经网络的梯度下降法#深度学习

09:58
第34集  

吴恩达《深度学习》系列课 - 34.(选修)直观理解反向传播#深度学习

15:48
第35集  

吴恩达《深度学习》系列课 - 35. 随机初始化#深度学习

07:57
第36集  

吴恩达《深度学习》系列课 - 36.深层神经网络#深度学习

05:51
第37集  

吴恩达《深度学习》系列课 - 37.前向和反向传播#深度学习

10:29
第38集  

吴恩达《深度学习》系列课 - 38.深层网络中的前向传播#深度学习

07:15
第39集  

吴恩达《深度学习》系列课 - 39.核对矩阵的维数#深度学习

11:09
第40集  

吴恩达《深度学习》系列课 - 40.为什么使用深层表示#深度学习

10:33
第41集  

吴恩达《深度学习》系列课 - 41.搭建深层神经网络块#深度学习

08:33
第42集  

吴恩达《深度学习》系列课 - 42.参数 VS 超参数#深度学习

07:16
第43集  

吴恩达《深度学习》系列课 - 43.这和大脑有什么关系?#深度学习

03:17
第44集  

吴恩达《深度学习》系列课 - 45. 吴恩达采访 Pieter Abbeel#深度学习

16:03
第45集  

吴恩达《深度学习》系列课 - 44.吴恩达采访Geoffrey Hinton#深度学习

40:22
第46集  

吴恩达《深度学习》系列课 - 47.训练_开发_测试集#深度学习

12:04
第47集  

吴恩达《深度学习》系列课 - 48. 偏差_方差#深度学习

08:46
第48集  

吴恩达《深度学习》系列课 - 46. 吴恩达采访 Ian Goodfellow#深度学习

14:55
第49集  

吴恩达《深度学习》系列课 - 49.机器学习基础#深度学习

06:21
第50集  

吴恩达《深度学习》系列课 - 51.为什么正则化可以减少过拟合?#深度学习

07:09
第51集  

吴恩达《深度学习》系列课 - 52.Dropout 正则化#深度学习

09:25
第52集  

吴恩达《深度学习》系列课 - 53.理解 Dropout#深度学习

07:04
第53集  

吴恩达《深度学习》系列课 - 54.其他正则化方法#深度学习

08:24
第54集  

吴恩达《深度学习》系列课 - 55.归一化输入#深度学习

05:30
第55集  

吴恩达《深度学习》系列课 - 56.梯度消失与梯度爆炸#深度学习

06:07
第56集  

吴恩达《深度学习》系列课 - 57.神经网络的权重初始化#深度学习

06:12
第57集  

吴恩达《深度学习》系列课 - 58.梯度的数值逼近#深度学习

06:35
第58集  

吴恩达《深度学习》系列课 - 59.梯度检验#深度学习

06:34
第59集  

吴恩达《深度学习》系列课 - 60.关于梯度检验实现的注记#深度学习

05:18
第60集  

吴恩达《深度学习》系列课 - 61.Mini-batch 梯度下降法#深度学习

11:28
第61集  

吴恩达《深度学习》系列课 - 62. 理解 mini-batch 梯度下降法#深度学习

08:14
第62集  

吴恩达《深度学习》系列课 - 63. 指数加权平均#深度学习

05:58
第63集  

吴恩达《深度学习》系列课 - 65.指数加权平均的偏差修正#深度学习

04:11
第64集  

吴恩达《深度学习》系列课 - 64.理解指数加权平均#深度学习

09:41
第65集  

吴恩达《深度学习》系列课 - 66.动量梯度下降法#深度学习

09:20
第66集  

吴恩达《深度学习》系列课 - 67.RMSprop#深度学习

07:41
第67集  

吴恩达《深度学习》系列课 - 68.Adam 优化算法#深度学习

07:07
第68集  

吴恩达《深度学习》系列课 - 69.学习率衰减#深度学习

06:44
第69集  

吴恩达《深度学习》系列课 - 70.局部最优的问题#深度学习

05:23
第70集  

吴恩达《深度学习》系列课 - 71.调试处理#深度学习

07:10
第71集  

吴恩达《深度学习》系列课 - 72.为超参数选择合适的范围#深度学习

08:50
第72集  

吴恩达《深度学习》系列课 - 73.超参数训练的实践:Pandas VS Caviar#深度学习

06:51
第73集  

吴恩达《深度学习》系列课 - 74.正则化网络的激活函数#深度学习

08:55
第74集  

吴恩达《深度学习》系列课 - 75.将 Batch Norm 拟合进神经网络#深度学习

12:55
第75集  

吴恩达《深度学习》系列课 - 77.测试时的 Batch Norm#深度学习

05:46
视频推荐