Hoy traemos un paper que resolvió uno de los problemas más frustrantes al trabajar con RNNs y LSTMs: ¿cómo evitar el overfitting? La técnica de regularización más exitosa para redes feedforward (dropout) simplemente NO funcionaba en RNNs. Este paper de 2014 por Wojciech Zaremba, Ilya Sutskever y Oriol Vinyals mostró por qué, y cómo arreglarlo.