{"id":310,"date":"2018-05-02T15:37:05","date_gmt":"2018-05-02T13:37:05","guid":{"rendered":"https:\/\/iaaa.lis-lab.fr\/?p=310"},"modified":"2018-05-03T16:38:53","modified_gmt":"2018-05-03T14:38:53","slug":"apprentissage-non-supervise-dembeddings-de-mots","status":"publish","type":"post","link":"https:\/\/iaaa.lis-lab.fr\/?p=310","title":{"rendered":"D\u00e9mo IAAA : Apprentissage non supervis\u00e9 d&#8217;embeddings de mots"},"content":{"rendered":"<p style=\"text-align: center;\">Une d\u00e9mo par l&rsquo;\u00e9quipe du parcours IAAA.<\/p>\n<p>Les embeddings de mots sont des repr\u00e9sentations r\u00e9elles et vectorielles (en faible dimension) de mots d&rsquo;une langue. Ces repr\u00e9sentations sont apprises de fa\u00e7on non supervis\u00e9e avec diverses m\u00e9thodes g\u00e9n\u00e9ralement bas\u00e9es sur des r\u00e9seaux de neurones.\u00a0 En utilisant un espace de repr\u00e9sentation de dimension 2 on peut visualiser les repr\u00e9sentations apprises et observer que des mots proches syntaxiquement ou s\u00e9mantiquement ont des repr\u00e9sentations proches. Cet espace de repr\u00e9sentation est souvent tr\u00e8s utile pour construire des applications de Traitement Automatique de la Langue qui sont plus robustes. Vous verrez comment apprendre de\u00a0telles repr\u00e9sentations dans les cours de Deep Learning et de Traitement Automatique de la Langue de M2 et M2 du parcours.<\/p>\n<p>&nbsp;<\/p>\n<p style=\"text-align: center;\">Espace de repr\u00e9sentation sur les mots de wikipedia appris avec la m\u00e9thode tsne<\/p>\n\n<!-- iframe plugin v.6.0 wordpress.org\/plugins\/iframe\/ -->\n<iframe loading=\"lazy\" src=\"https:\/\/pageperso.lis-lab.fr\/benoit.favre\/tsne-frwiki\/\" width=\"110%\" height=\"600\" scrolling=\"yes\" class=\"iframe-class\" frameborder=\"0\"><\/iframe>\n\n","protected":false},"excerpt":{"rendered":"<p>Une d\u00e9mo par l&rsquo;\u00e9quipe du parcours IAAA. Les embeddings de mots sont des repr\u00e9sentations r\u00e9elles et vectorielles (en faible dimension) de mots d&rsquo;une langue. Ces repr\u00e9sentations sont apprises de fa\u00e7on non supervis\u00e9e avec diverses m\u00e9thodes g\u00e9n\u00e9ralement bas\u00e9es sur des r\u00e9seaux de neurones.\u00a0 En utilisant un espace de repr\u00e9sentation de dimension 2 on peut visualiser les&hellip;<\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[18],"tags":[],"class_list":["post-310","post","type-post","status-publish","format-standard","hentry","category-demos"],"_links":{"self":[{"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/posts\/310","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=310"}],"version-history":[{"count":8,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/posts\/310\/revisions"}],"predecessor-version":[{"id":351,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/posts\/310\/revisions\/351"}],"wp:attachment":[{"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=310"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=310"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=310"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}