本文原载于https://imlogm.github.io,转载请注明出处~
摘要:BN最早出现在Google的Inception(v2)网络中,它的效果让人瞠目结舌。那么,BN的原理是什么?为什么会有这么好的效果?
关键字:深度学习, BN, 优化
本文原载于https://imlogm.github.io,转载请注明出处~
摘要:BN最早出现在Google的Inception(v2)网络中,它的效果让人瞠目结舌。那么,BN的原理是什么?为什么会有这么好的效果?
关键字:深度学习, BN, 优化
本文原载于https://imlogm.github.io,转载请注明出处~
摘要:我第一次读到ResNet时,完全不敢相信152层的残差网络,竟然在时间复杂度(计算量)上和16层的VGG是一样大的。当然,对于初学者而言,直接分析ResNet的时间复杂度是有点难度的。这篇文章我将以VGG为例,介绍深度网络的复杂度计算方法。掌握这些计算方法后,再去看Inception、ResNet、MobileNet、SqueezeNet等论文,你就能明白这些网络结构的精妙之处。
关键字:深度网络, VGG, 复杂度分析, 计算量, 参数量
本文原载于https://imlogm.github.io,转载请注明出处~
摘要:二维图像的傅立叶变换,与一维傅立叶相比,在理解上要抽象很多。我在网上找了几篇相对较好的文章,并用matlab自己做了几个实验图像,希望能对大家理解二维图像的傅立叶变换有所帮助。
关键字:二维傅立叶变换,图像处理
Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.