For investors
股价:
5.36 美元 %For investors
股价:
5.36 美元 %认真做教育 专心促就业
随着互联网的不断发展,人工智能技术也得到了很大的突破,而今天我们就一起来了解一下,人工智能技术中深度学习的算法应用分析。
隐藏层
隐藏层十分有趣。根据通用逼近定理,含有有限数量神经元的单个隐层网络可以被训练为类似任意的随机函数。换句话说,单个隐藏层强大到可以学习任何函数。这说明我们在多隐藏层(如深度网络)的实践中可以得到更好的结果。
隐藏层就是网络存储它的训练数据的内部抽象表征的地方,类似于我们大脑(大大简化的类比)有个对真实世界的内部表征。回到教程前面,我们将观察玩味隐藏层的不同方式。
一个示例网络
你可以在这里看到Java语言通过testMLPSigmoidBP方法,用一个简单的(4-2-3层次)前馈式神经网络对IRIS数据集(译者注:经典的分类鸢尾花数据集)进行分类。IRIS数据集包括三个种类的鸢尾花的特征集合,比如叶萼长度,花瓣长度等等。网络需要从每个种类的鸢尾花中抽取50个样本,这些特征值被作为输入元输入网络,而每个输出元对应着数据集中一个单独的种类:「1/0/0」表示这株植物的种类是Setosa,「0/1/0」表示为Versicolour种类,而[0/0/1]表示为Virginica种类。它的分类错误率为2/150(即,它在150个实例植株分类过程中出现了两个分类错误)。
大型神经网络的问题
一个神经网络可以有不止一个隐藏层:这就是说,更加高级一些的层次会基于前一层「创建」新的抽象概念。正如之前提到过的,你总是可以用更大的网络在实际应用中学习的更好。
然而,持续增长隐藏层的数目会带来以下两个显著的问题:
1.梯度消失。当我们添加了一个又一个的隐藏层时,反向传播将有用信息反向传回前面层次起的作用就变得越来越小。实际上,当信息被反向传回,梯度开始消失,并且与网络的权重相关性也更加小。
2.过拟合。这可能也是机器学习的核心难题。简单来说,过拟合描述了网络模型过于贴近训练数据的现象,这可能是模型太过复杂导致的。在这样的例子下,你的学习模型终确实能够很好的拟合数据,但是会拟合地过了头,在真实的测试实例上表现更加糟糕。
让我们看一些深度学习算法如何解决这个问题的。
自编码器
大多数引导性机器学习都停止在前馈神经网络这一步。但是可能的网络空间远非如此——所以让我们继续。
自编码器是典型的前馈型神经网络,旨在学习一个经过压缩的、分布表示(编码)的数据集。
【免责声明】:本内容转载于网络,转载目的在于传递信息。文章内容为作者个人意见,本平台对文中陈述、观点保持中立,不对所包含内容的准确性、可靠性与完整性提供形式地保证。请读者仅作参考。更多内容请在707945861群中学习了解。