吴恩达《深度学习》第一门课(1)深度学习引言

  • 时间:
  • 浏览:0

第二门课:神经网络的训练技巧;

(1)常说的深层学习指的却说训练神经网络,导致 也指不得劲大规模的神经网络。

总共四周,分别是前言,解矫知识,浅层神经网络和深层神经网络。

(1)神经网络在监督学习上的应用:

主要讲了五门课的内容:

(2)算法创新的另有一个小案例:激活函数从sigmoid(指在梯度消失)变成ReLU,训练的速率变得调快了。

第一门课:神经网络基础,构建网络等;

(1)三点导致 :数据规模大、计算速率提高、算法的创新。事实上如今提高性能最可靠的最好的法律法律依据却说运用更大的神经网络和投入更多的数据。下图展示了数据量、模型大小与性能之间的关系:

(2)数据包括底部形态化数据和非底部形态化数据,图像语言语音全部后会非底部形态化数据,是神经网络要研究处里的重点。

(2)每另有一个神经元都代表着从输入到输出的函数映射,如下的房价预测:

第四门课:卷积神经网络相关;

(3)在实践应该按照下图最好的法律法律依据进行快速迭代:

(4)神经网络非常擅长计算从x到y的精确映射函数(买车人理解:神经网络实质却说非线性的多项式拟合),神经网络的输入单元个数一般是底部形态个数,后面 称为隐藏层,却说输出单元个数最好的法律法律依据实际情況而定,如下输出是房价的预测值,故是另有一个神经元。

第三门课:构建机器学习系统的你是什么 策略,下一步该缘何走(吴恩达老师新书《Machine Learning Yearning》却说针对你是什么 以及上一课);

第五门课:循环神经网络相关。

(3)激活函数Relu(Rectified Linear Unit)真是 却说max(0,x)。