年,Hinton发表了一篇论文《AFastLearningAlgorithmforDeepBeliefNets》,提出了降维和逐层预训练方法,该方法可成功运用于训练多层神经网络,使深度网络的实用化成为可能。该论文也被视作深度学习领域的经典之作。
从原理来看,深度学习与神经网络紧密相关:神经网络由一层一层的神经元构成,层数越多,神经网络越深,而所谓“深度学习”就是模拟人类大脑,运用深层神经网络对输入进行“思考”、“分析”并获得目标输出的过程。
那么,自年Hinton发表经典论文以来,深度学习领域又取得了哪些突破性成果呢?
GoogleBrain前员工DennyBritz在本文中进行了回顾整理,按时间顺序介绍了从年到年深度学习领域的数项关键性科研成就,包括运用AlexNet和Dropout处理ImageNet(年)、使用深度强化学习玩Atari游戏(年)、应用注意力机制的编码器-解码器网络(年)、生成对抗网络(-年)、ResNet(年)、Transformer模型(年)、BERT与微调自然语言处理模型(年),以及-年及之后的BIG语言模型与自监督学习等。这些技术大部分应用于视觉、自然语言、语音与强化学习等领域。
这些研究均已经过时间的考验,并得到广泛认可。本文不仅列举了年以来的部分出色成果,还涉及到大量有利于了解当今深度学习研究现状的基础技术与知识。深度学习基础技术的概念、方法和代码等具有相似性,研究人员可以触类旁通。比方说,一个终生研究计算机视觉(