Représentation et modélisation de données temporelles audio
Par G. Peeters
Geoffroy Peeters présente au séminaire ADASP ses recherches dans le domaine de la modélisation de séquences temporelles audio.
Résumé
Lors de ce séminaire, je montrerai nos recherches récentes dans le domaine de la modélisation de séquences temporelles audio. Ces caractéristiques temporelles peuvent être
-
modélisées dans la représentation audio (modulation spectrum à Q-constant, modulation scale spectrum, Fourier-Mellin transform, 2D-Fourier Transform, utilisation de Data Augmentation pour la création de représentation),
-
modélisées dans le modèle de langage (estimation jointe tempo/métrique/battement/premier-temps, structure/tonalité/accord par HMM),
-
être inférée automatiquement de manière générative (estimation non-supervisée d’états cachés HMM par SI-PLCA, estimation de représentation spectrale par machine de Boltzman restreinte ou auto-encoder) ou
-
être inférée de manière discriminante par réseau de neurones convolutifs.