09-12-2020: Gaël Richard: Lauréat 2020 des prix IMT - Académie des sciences
Le groupe ADASP est fier de son membre et coordinateur passé Gaël Richard, Lauréat 2020 des prix IMT - Académie des sciences. ≥≥
Le thème ADASP (Audio Data Analysis and Signal Processing) est un groupe de recherche associé à l'équipe S²A, et affilié au laboratoire LTCI de Télécom Paris.
Une part importante de nos travaux de recherche s'effectue dans le cadre de projets collaboratifs nationaux et internationaux, avec de nombreux partenaires académiques et industriels.
Le groupe ADASP est fier de son membre et coordinateur passé Gaël Richard, Lauréat 2020 des prix IMT - Académie des sciences. ≥≥
Notre doctorante Kimia Nadjahi gagne le prix du meilleur article écrit par un étudiant à ICASSP 2020 pour son papier: ≥≥
SPIRAL - Centre interdisciplinaire Science, Arts et Citoyens ≥≥
Notre groupe recrute Maître de conférences en machine learning distribué/multi-vues appliqué au machine listening et à l’analyse de contenus audio. ≥≥
B. Fuentes présente au séminaire ADASP son outil générique de factorisation de tenseurs. ≥≥
Geoffroy Peeters présente au séminaire ADASP ses recherches dans le domaine de la modélisation de séquences temporelles audio. ≥≥
Onset_Leveau est une petite base de données annotée pour la détection d’Onsets et qui a été utilisée (en complément d’autres bases) à la tâche de détection d... ≥≥
Nous proposons Romeo-HRTF, une base de données de fonctions de transfert de tête (HRTF: Head Related Transfer Functions). Nous étendons le concept habituel d... ≥≥
MAPS, MIDI Aligned Piano Sounds, est une base de sons de piano dédiée à la recherche en transcription automatique du piano et l’estimation fréquences fondame... ≥≥
ENST-Drums est une base de données variée pour la recherche sur le traitement automatique et la transcription des signaux de batterie. Trois batteurs profess... ≥≥
Abstract Machine listening systems often rely on fixed taxonomies to organize and label audio data, key for training and evaluating deep neural networks (DNN... ≥≥
Abstract Audio-text models trained via contrastive learning offer a practical approach to perform audio classification through natural language prompts, such... ≥≥
Abstract In neural audio signal processing, pitch conditioning has been used to enhance the performance of synthesizers. However, jointly training pitch esti... ≥≥
Abstract Music generated by deep learning methods often suffers from a lack of coherence and long-term organization. Yet, multi-scale hierarchical structure ... ≥≥
Abstract Overlapped speech is notoriously problematic for speaker diarization systems. Consequently, the use of speech separation has recently been proposed ... ≥≥
Yuki Mitsufuji presents the work of the Music Foundation Model Team in Sony AI. ≥≥
Joan Serrà presents an overview of research on generative modelling for audio at Dolby labs. ≥≥
Each month, the joint lab proposes invited talks for its partners. ≥≥
Each month, the lab proposes invited talks for its partners. ≥≥
Michel Olvera, postdoctoral researcher within the Audio Data Analysis and Signal Processing (ADASP) group at Télécom Paris, will give a talk about robust sou... ≥≥
Fabian-Robert Stöter, Researcher at Audioshake in US, will give a talk about music source separation and the Sound Demixing Challenge 2023: ≥≥
Simon Leglaive, tenured Assistant Professor at CentraleSupélec, will give a talk about multimodal DVAE for speech representation learning: ≥≥
Alexey Ozerov, Lead of AI Research at Ava, will give a talk about his work and strategies at Ava company which aim to develop live captioning solution for an... ≥≥
Robin Scheibler, Senior Researcher at LINE Corporation, Tokyo, Japan will introduce his work about Robust Speech Separation algorithms and audio toolboxes ≥≥
Vincent Lostanlen will introduce his work about green machine listening models ≥≥