吴恩达《深度学习》第一门课(1)深度学习引言

  • 时间:
  • 浏览:1
  • 来源:uu快3游戏_uu快3计划_苹果版

第一门课:神经网络基础,构建网络等;

第二门课:神经网络的训练技巧;

(2)算法创新的三个 小案例:激活函数从sigmoid(指在梯度消失)变成ReLU,训练的强度变得很快了。

(3)在实践应该按照下图方法进行快速迭代:

(4)神经网络非常擅长计算从x到y的精确映射函数(另一方理解:神经网络实质只是非线性的多项式拟合),神经网络的输入单元个数一般是內部个数,里边称为隐藏层,而且输出单元个数方法实际情形而定,如下输出是房价的预测值,故是三个 神经元。

(2)每三个 神经元都代表着从输入到输出的函数映射,如下的房价预测:

主要讲了五门课的内容:

第五门课:循环神经网络相关。

(1)常说的淬硬层 学习指的只是训练神经网络,不可能 也指怪怪的大规模的神经网络。

第三门课:构建机器学习系统的有些策略,下一步该为啥么走(吴恩达老师新书《Machine Learning Yearning》只是针对你这名以及上一课);

第四门课:卷积神经网络相关;

(2)数据包括內部化数据和非內部化数据,图像语言语音也有非內部化数据,是神经网络要研究处置的重点。

总共四周,分别是前言,预备期知识,浅层神经网络和淬硬层 神经网络。

(1)神经网络在监督学习上的应用:

(3)激活函数Relu(Rectified Linear Unit)觉得 只是max(0,x)。

(1)三点原因:数据规模大、计算强度提高、算法的创新。事实上如今提高性能最可靠的方法只是运用更大的神经网络和投入更多的数据。下图展示了数据量、模型大小与性能之间的关系: