Planning de la deuxième journée de soutenances de l’UE Communication

Important

  • Envoyez vos slides par email à Thierry Artières avant le début de la journée. Et venez avec vos slides sur une clé USB.
  • La soutenance dure 12′ + 8′ de questions
  • Les soutenances se dérouleront à St Charles en salle CH01 Bat 01 St Charles

 

Matin

Beggi Valentin Emiya Étude du papier « Energy and Policy Considerations for Deep Learning in NLP », Strubbel et al. ACL 2019 et mise en perspective avec les activités locales de recherche et d’enseignement. 9h00
Gabiot Cyril Terrioux Etude du solveur PicatSAT 9h20
Mouchabac Benoit Favre Étude de l’article « UNITER: Learning UNiversal Image-TExt Representations », état de l’art sur les tâches présentées dans l’article ou réimplémentation 9h40
Timmerman Carlos Ramisch (remotely) étude des biais (de genre) et méthodes de « debiasing » dans les word embeddings 10h
Jauffret Cyril Terrioux Etat de l’art sur les explications en CSP à partir de l’article « Lazy Explanations for Constraint Propagators » de Gent et al. 10h30
Saissi Hassani Nicolas Prcovic Etat de l’art des contraintes ensemblistes et étude de leur intégration dans Choco Solver 10h50
Péjout Hachem Kadri Etude de l’article « Efficient Tree Decomposition of High-Rank Tensors » (J. of Computational Physics, 2019) 11h10
Noyelle Hachem Kadri &
Stéphane Ayache
Etude de l’article « A Riemannian Networkfor SPD Matrix Learning » (AAAI, 2017) et prise en main du code (dispo sur github) 11h30
Pugnaire Luc Giffon
Stephane Ayache
Etude de l’article « And the Bit Goes Down: Revisiting the Quantization of Neural Networks ». Pierre Stock, Armand Joulin, Rémi Gribonval, Benjamin Graham, Hervé Jégou. Soumis à ICLR’20 11h50

 

 

Après-midi

Rougette Nicolas Prcovic Etat de l’art des contraintes sur les graphes et étude de leur intégration dans Choco Solver 13h
Zhou François-Xavier Dupé Etude de l’article « Learning Compositional Neural Programs with Recursive Tree Search and Planning » de Thomas Pierrot, Guillaume Ligner, Scott Reed, Olivier Sigaud, Nicolas Perrin, Alexandre Laterre, David Kas, Karim Beguir et Nando de Freitas. Article d’une équipe de DeepMind autour des méthodes de type alphazero. 13h20
Mercui-Voyant Paolo Milanesi
Stephane Ayache
Etude de l’article « Similarity-Preserving Knowledge Distillation ». ICCV’19. Frederick Tung, Greg Mori. 13h40
Ahmed Remi Eyraud Etude de l’article « Connecting Weighted Automata and Recurrent Neural Networks through Spectral Learning » 14h
Posocco ronan sicre Etude de l’état de l’art en interpretabilité des CNN 14h20
Inukai François-Xavier Dupé Etude de l’article « How Powerful are Graph Neural Networks » de Keyulu Xu, Weihua Hu, Jure Leskovec et Stefanie Jegelka. ICLR 2019. Autour de l’apprentissage de graphes avec des méthodes de type deep learning. 14h40
Brient Thierry Artières Sujet à définir 15h
Torba Stephane Ayache Etude de l’article « Meta-Transfer Learning for Few-Shot Learning ». CVPR’19. Qianru Sun, Yaoyao Liu2, Tat-Seng Chua, Bernt Schiele. 15h30
Thomas ronan sicre Etude de l’état de l’art sur la classification d’images médicales 15h50
Pillu Thierry Artières Mesures de confiance dans les réseaux de neurones 16h10
Plocharski Thierry Artières Presentation de l’état de l’art sur l’étude des representations apprises dans des modèles recurrents 16h30
Morin Alexis Nasr Etude de l’article « Greedy Transition-Based Dependency Parsing with Stack LSTMs «  16h50