Une démo par l’équipe du parcours IAAA.

Les embeddings de mots sont des représentations réelles et vectorielles (en faible dimension) de mots d’une langue. Ces représentations sont apprises de façon non supervisée avec diverses méthodes généralement basées sur des réseaux de neurones.  En utilisant un espace de représentation de dimension 2 on peut visualiser les représentations apprises et observer que des mots proches syntaxiquement ou sémantiquement ont des représentations proches. Cet espace de représentation est souvent très utile pour construire des applications de Traitement Automatique de la Langue qui sont plus robustes. Vous verrez comment apprendre de telles représentations dans les cours de Deep Learning et de Traitement Automatique de la Langue de M2 et M2 du parcours.

 

Espace de représentation sur les mots de wikipedia appris avec la méthode tsne