近年来,深度学习已成为科技界的一个流行语。我们似乎总是在有关AI的新闻中听到它,但大多数人实际上并不知道它是什么!在本文中,我将揭开深刻学习流行语的神秘面纱,并提供对其工作原理的直觉。

建立直觉

有什么叫深度学习(为什么叫深度学习)(1)

一般来说,深度学习是一种机器学习方法,它接受输入X,并用它来预测Y的输出。例如,给定过去一周的股票价格作为输入,我的深度学习算法将尝试预测第二天的股票价格。

给定输入和输出对的大数据集,深度学习算法将尝试最小化其预测和预期输出之间的差异。通过这样做,它试图学习给定输入和输出之间的关联/模式 - 这反过来允许深度学习模型推广到它以前没有见过的输入。

作为另一个例子,假设输入是狗和猫的图像,输出是那些图像的标签(即输入图像是狗或猫)。如果输入具有狗的标签,但是深度学习算法预测猫,则我的深度学习算法将知道我的给定图像的特征(例如,锋利的牙齿,面部特征)将与狗相关联。

深度学习算法如何"学习"?

深度学习算法使用称为神经网络的东西来查找一组输入和输出之间的关联。基本结构如下:

有什么叫深度学习(为什么叫深度学习)(2)

神经网络由输入层,隐藏层和输出层组成 - 所有层都由"节点"组成。输入层采用数据的数字表示(例如,具有像素规格的图像),输出层输出预测,而隐藏层与大多数计算相关。

我不会深入研究数学,但是通过上面显示的函数在网络层之间传递信息。这里要注意的主要问题是可调谐的重量和偏差参数 - 分别在上面的函数中用w和b表示。这些对于深度学习算法的实际"学习"过程是必不可少的。

在神经网络将其输入一直传递到其输出之后,网络通过称为损失函数的东西评估其预测(相对于预期输出)的好坏程度。例如,"均方误差"损失函数如下所示。

有什么叫深度学习(为什么叫深度学习)(3)

Y hat表示预测,而Y表示预期输出。如果同时使用批量输入和输出,则使用平均值(n表示样本计数)

我的网络的目标最终是通过调整网络的权重和偏差来最小化这种损失。在通过梯度下降使用称为"反向传播"的东西时,网络通过其所有层进行回溯以更新损失函数的相反方向上的每个节点的权重和偏差 - 换句话说,每次反向传播的迭代应该导致比以前更小的损失功能。

在不进行证明的情况下,网络权重和偏差的不断更新最终将其转化为精确的函数逼近器 - 模拟输入和预期输出之间的关系。

那么为什么它被称为"深度"学习?

深度学习的"深层"部分是指创建深度神经网络。这是指具有大量层的神经网络 - 通过增加更多的权重和偏差,神经网络提高了其近似更复杂功能的能力。

结论

深度学习最终是一个广阔的领域,并且比我所描述的要复杂得多。存在用于不同任务的各种类型的神经网络(例如,用于计算机视觉的卷积NN,用于NLP的递归NN),并且远远超出我所涵盖的基本神经网络。

有什么叫深度学习(为什么叫深度学习)(4)

卷积神经网络

即使你不记得本文中的所有内容,这里有一些要点:

深度学习的含义是疯狂的。虽然我提供了相当简单的应用示例,例如图像分类和股票价格预测,但最终还是有更多!视频合成,自动驾驶汽车,人类游戏AI等等 - 所有这些都来自深度学习。

,