想从事深度学习工作的进来看,经典面试问题帮你整理好了
大小:0.4 MB 人气: 2017-12-06 需要积分:1
SGD 中 S(stochastic)代表什么
个人理解差不多就是Full-Batch和Mini-Batch
监督学习/迁移学习/半监督学习/弱监督学习/非监督学习?
本笔记主要问题来自以下两个问题,后续会加上我自己面试过程中遇到的问题。
深度学习相关的职位面试时一般会问什么?会问一些传统的机器学习算法吗?
如果你是面试官,你怎么去判断一个面试者的深度学习水平?
以下问题来自@Naiyan Wang
CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?
Deep Learning -Yann LeCun, Yoshua Bengio & Geoffrey Hinton
Learn TensorFlow and deep learning, without a Ph.D.
The Unreasonable Effectiveness of Deep Learning -LeCun 16 NIPS Keynote
以上几个不相关问题的相关性在于,都存在局部与整体的关系,由低层次的特征经过组合,组成高层次的特征,并且得到不同特征之间的空间相关性。如下图:低层次的直线/曲线等特征,组合成为不同的形状,最后得到汽车的表示。
CNN抓住此共性的手段主要有四个:局部连接/权值共享/池化操作/多层次结构。
局部连接使网络可以提取数据的局部特征;权值共享大大降低了网络的训练难度,一个Filter只提取一个特征,在整个图片(或者语音/文本) 中进行卷积;池化操作与多层次结构一起,实现了数据的降维,将低层次的局部特征组合成为较高层次的特征,从而对整个图片进行表示。
非常好我支持^.^
(1) 100%
不好我反对
(0) 0%