Abstract:
Continuando la línea de aprendizaje profundo, se extenderá la idea de redes neuronales al caso de entradas de transmisión continua como las series de tiempo o secuencias de video, bajo el concepto de redes neuronales recurrentes. Esta arquitectura ha demostrado gran capacidad en procesamiento de voz y texto, desplazando a metodologías alternativas como las cadenas de Markov en muchas aplicaciones. Partiendo por su definición más básica, se explicará su funcionamiento así como sus limitaciones, para luego elaborar en el concepto hasta las arquitecturas más modernas como Long Short-Term Memory, Seq2Seq y el uso de embeddings. Se prestará atención a su entrenamiento y desempeño en la práctica, incluyendo visualizaciones para su mejor comprensión.
Venue: Beauchef 851, Torre Norte, Piso 7, Sala de Seminarios John Von Neumann CMM.
Speaker: Angelo Falchetti
Affiliation: DIE
Coordinator: Felipe Tobar
Posted on May 5, 2016 in Seminario Aprendizaje de Máquinas, Seminars



Noticias en español
