【更新日期】2019年3月14日 新型RNN:将层内神经元相互独立以提高长程记忆 | CVPR 2018论文解读 再谈变分自编码器VAE:从贝叶斯观点出发 基于GAN的字体风格迁移 | CVPR 2018论文解读 一文读懂深度学习模型近年来重要进展(附梳理图) 学习如何学习的算法:简述元学习研究方向现状 【教程】可视化CapsNet,详解Hinton等人提出的胶囊概念与原理 变分自编码器VAE:这样做为什么能成? 深度学习DenseNet算法详解 学习如何学习的算法:简述元学习研究方向现状 一文简述ResNet及其多种变体 深度卷积神经网络演化历史及结构改进脉络-40页长文全面解读 深度学习在CTR预估中的应用 | CTR深度模型大盘点 CNN可视化最新研究方法进展(附结构、算法) BP神经网络算法推导及代码实现笔记 【一个神经元统治一切】ResNet 强大的理论证明 FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN 模型不收敛,训练速度慢,如何才能改善 GAN 的性能? 深度概率生成模型—156页普林斯顿教程带你回顾深度生成模型最新发展脉络 CMU大学76页深度学习课程:变分自编码器(VAE, Variational Autoencoder) 新手必看:生成对抗网络的初学者入门指导 WGAN-div:默默无闻的WGAN填坑者 | 附开源代码 Meta-Learning 元学习:学会快速学习 从Wasserstein距离、对偶理论到WGAN 中国学霸本科生提出AI新算法:速度比肩Adam,性能媲美SGD,ICLR领域主席赞不绝口 Google联合OpenAI揭秘神经网络黑箱:AI的智慧,都藏在「激活地图」里