第372章 卷积神经网络

可以说,能生产出来多少,就能卖出去多少。

在技术爱好者的小圈子里,甚至造成了一机难求的“繁荣”景象……

自从上次聚会后,江寒整整花了一个星期的时间,上网收集资料,刷论文、找参考文献……

经过一番努力,终于做好了前期准备,正式动笔写作下一篇论文。

在他的计划中,这是今年最后的,也是最重要的一篇论文。

江寒打算在2012年的最后几天里,将“卷积神经网络”抛出去。

卷积神经网络,简称CNN,是一种前馈型的神经网络,在“深度学习”技术中,也是非常重要的一块积木。

CNN最为适用的场景是图像分类和场景识别。

在另一个世界,曾经在标准图像标注集ImageNet上,取得过举世瞩目的成就。

一般的全连接神经网络,是把输入数据看做一维的数组。

处理图形、图像时,一行、一行地读取像素点,然后拼接成一串数据。

这样一来,就忽略了行与行之间的二维关系。

而CNN则是通过“卷积核”对图片进行滤波,从而提取图片的特征。

所谓卷积核,就是一个N行N列的数字矩阵。

卷积的过程,其实就是一个压缩图片的过程。

而“卷积核”的本质,就是一个二维的滤波器。

这样的做法,很好地保留了邻近像素之间的关联情况,所以在大型图像处理方面,往往会有非常出色的表现。

和其他神经网络相比,CNN需要的参数比较少,使用起来更加迅速、有效。

CNN在训练时,采用的是和BP网络相似的“反向传播”技巧。

一个经典的CNN网络,通常包括输入层、卷积层、池化层、全连接层、输出层或者径向基层。

其中涉及到一些概念,比如“池化”、“局部感受野”、“共享权值”……

江寒原本对这些东西,只有个大概的了解,理解得并不算特别透彻。

这样一来,在研究CNN的时候,很多东西都要现场推导。

因此这篇论文是他写得最费劲的一篇,足足花了一个多星期,才打通了全部障碍,形成了初步的腹稿。

传统的图像处理算法,一般都要进行预处理,比如FCN,如果不对图像进行压缩,那么计算量将会非常巨大,甚至根本无法实施。

但对于CNN来说,预处理并不是必要的,很多时候,甚至可以直接用原始图像,作为输入数据。

所以,CNN的实用价值也是非常显着的。

江寒所知道的,就有手写识别、语音识别、物体检测、人脸识别等许多应用方向。

“当年”震惊世界的围棋AI程序,阿法狗,其核心中也包含了卷积网络CNN。

可以说,有了卷积神经网络,计算机视觉这个领域,才迎来了革命性的进步……

江寒花了好几天时间,终于将这篇论文写了出来。

反复校对,感觉没什么问题之后,就投给了一区期刊rnationalConferenceonMachineLearning)。

这时,距离新年只剩下三天。

就在这样的忙碌中,时间走到了2012年最后一天。

日晚上。

江寒临睡前,忽然发现信息栏里跳出了一行红字提示。

江寒打开系统UI面板。

可用的学术点终于不再是个负数了。

江寒欣喜不已。

然而,就在这时……

Back to Top