{"id":334,"date":"2018-05-03T16:10:22","date_gmt":"2018-05-03T14:10:22","guid":{"rendered":"https:\/\/iaaa.lis-lab.fr\/?page_id=334"},"modified":"2024-10-07T19:40:08","modified_gmt":"2024-10-07T17:40:08","slug":"details-des-ues","status":"publish","type":"page","link":"https:\/\/iaaa.lis-lab.fr\/?page_id=334","title":{"rendered":"D\u00e9tails des UEs"},"content":{"rendered":"<h1 style=\"text-align: center;\">D\u00e9tails des UEs de M1<\/h1>\n<p><b>\f<\/b><\/p>\n<h3 id=\"ISD\"><b>Introduction \u00e0 la science des donn\u00e9es (M1)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">L\u2019objectif principal de l\u2019UE est de sensibiliser et familiariser l\u2019\u00e9tudiant avec les id\u00e9es, les algorithmes, les protocoles de base de la science de donn\u00e9es. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nous y traiterons ainsi des approches incontournables pour visualiser les donn\u00e9es, r\u00e9duire leurs dimensions, les analyser par des approches de regroupement et de r\u00e9gression, et les utiliser pour \u00e9tablir des mod\u00e8les pr\u00e9dictifs (classification). Pour environner ces approches dans un cadre exp\u00e9rimental, nous parcourrons les principales m\u00e9triques d\u2019\u00e9valuation des estimations faites et leurs modes de calcul ; ceci permettra de d\u00e9finir des cadres exp\u00e9rimentaux coh\u00e9rents pour la mise en oeuvre de s\u00e9lection automatique de mod\u00e8les. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">La plupart des concepts abord\u00e9s seront illustr\u00e9s sur la base de donn\u00e9es artificielles et de donn\u00e9es r\u00e9elles.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A l\u2019issue de cette UE, tout \u00e9tudiant sera en capacit\u00e9 de r\u00e9aliser un cha\u00eene compl\u00e8te de visualisation et traitements de donn\u00e9es en avec des m\u00e9thodes simples.<\/span><\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Chapitre 1 : Visualiser les donn\u00e9es (ACP, r\u00e9sum\u00e9s statistiques type histogrammes), principes de normalisation et de standardisation. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Chapitre 2 : Le regroupement de donn\u00e9es (clustering) : m\u00e9thode des k-moyennes, m\u00e9thodes hi\u00e9rarchiques, impact du choix de la distance, d\u00e9couverte de la notion de stabilit\u00e9 \u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Chapitre 3 : La pr\u00e9diction par r\u00e9gression (lin\u00e9aire et polynomiale), introduction \u00e0 la causalit\u00e9<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Chapitre 4 : Crit\u00e8res de performances (erreur, pr\u00e9cision, ROC, etc.) et modes d\u2019estimation (hold-out, validation crois\u00e9e). Principes de la s\u00e9lection de mod\u00e8les. D\u00e9finir un protocole exp\u00e9rimental solide. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Chapitre 5 : La classification \u00e0 travers les m\u00e9thodes (a) des \u00a0k plus proches voisins, et (b) des arbres de d\u00e9cision ; \u00e9tude de l\u2019impact des hyper-param\u00e8tres <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Les TP et TD seront des ateliers de pratique du cours, \u00e0 partir de donn\u00e9es benchmark de l\u2019UCI pour se familiariser avec les concepts de la science des donn\u00e9es. Ils seront r\u00e9alis\u00e9s en python, en se familiarisant avec les packages numpy, sklearn, et pandas. A partir du 3\u00e8me TD\/TP, un projet sera travaill\u00e9 sur des donn\u00e9es visuelles (images num\u00e9ris\u00e9es).<\/span><\/p>\n<p><b>\u00c9quipe enseignante<\/b><\/p>\n<p><span style=\"font-weight: 400;\">C\u00e9cile Capponi (responsable)<br \/><\/span><\/p>\n<p>Hachem Kadri<\/p>\n<p>Thomas Schatz<\/p>\n<hr \/>\n<h3 id=\"ITAL\"><b>Introduction au traitement automatique des langues (M1)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Le but de ce cours est de familiariser les \u00e9tudiants avec les repr\u00e9sentations vectorielles et avec les mod\u00e8les de s\u00e9quence pour le traitement automatique du langage naturel (TAL). \u00c0 l&rsquo;issue de ce cours, un \u00e9tudiant doit ma\u00eetriser ce mod\u00e8le et \u00eatre capable de l&rsquo;appliquer \u00e0 des t\u00e2ches d&rsquo;\u00e9tiquetage de s\u00e9quences telles que la traduction automatique.<\/span><\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Les s\u00e9ances TP permettent de r\u00e9aliser le projet de mani\u00e8re incr\u00e9mentale. \u00c0 l&rsquo;issue du dernier TP, les \u00e9tudiants auront impl\u00e9ment\u00e9 un traducteur automatique mot-\u00e0-mot fond\u00e9 sur un mod\u00e8le d&rsquo;\u00e9tiquetage de s\u00e9quences (HMM). Le contenu des CM et des TD permet d&rsquo;acqu\u00e9rir les notions th\u00e9oriques n\u00e9cessaires \u00e0 la r\u00e9alisation du projet.<\/span><\/p>\n<p><em><strong>S\u00e9ance 1<\/strong> &#8211; Repr\u00e9sentation de textes<\/em><\/p>\n<p><span style=\"font-weight: 400;\">CM+TD: Encodage de textes, tok\u00e9nisation, <\/span><i><span style=\"font-weight: 400;\">word embeddings<\/span><\/i><span style=\"font-weight: 400;\">, op\u00e9rations vectorielles<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TP: tok\u00e9nisation de textes<\/span><\/p>\n<p><em><strong>S\u00e9ance 2<\/strong> &#8211; Mod\u00e8les \u00e0 n-grammes<\/em><\/p>\n<p><span style=\"font-weight: 400;\">CM+TD: Rappel probabilit\u00e9s, estimation de probabilit\u00e9s pour cha\u00eenes de markov<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TP: Apprentissage d&rsquo;un mod\u00e8le de n-grammes \u00e0 partir d&rsquo;un texte<\/span><\/p>\n<p><em><strong>S\u00e9ance 3<\/strong> &#8211; Mod\u00e8les d&rsquo;\u00e9tiquetage de s\u00e9quences<\/em><\/p>\n<p><span style=\"font-weight: 400;\">CM+TD: Estimation de probabilit\u00e9s pour HMM, algorithme <\/span><i><span style=\"font-weight: 400;\">forward<\/span><\/i><span style=\"font-weight: 400;\">, perplexit\u00e9<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TP: Calcul de la perplexit\u00e9<\/span><\/p>\n<p><em><strong>S\u00e9ance 4<\/strong> &#8211; D\u00e9codage avec mod\u00e8les de markov<\/em><\/p>\n<p><span style=\"font-weight: 400;\">CM+TD: log-probabilit\u00e9s, algorithme de Viterbi<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TP: Traduction automatique avec d\u00e9codage Viterbi<\/span><\/p>\n<p><em><strong>S\u00e9ance 5<\/strong> &#8211; Alignement lexical<\/em><\/p>\n<p><span style=\"font-weight: 400;\">CM+TD: apprentissage d&rsquo;alignements sur donn\u00e9es incompl\u00e8tes (algorithme EM)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TP: Alignement lexical de corpus parall\u00e8les pour la traduction<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Fr\u00e9d\u00e9ric B\u00e9chet (responsable)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Alexis Nasr<br \/><\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Introduction \u00e0 l\u2019apprentissage artificiel (M1)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">L\u2019apprentissage artificiel (ou automatique) est une discipline \u00e0 l\u2019intersection entre la science des donn\u00e9es et l\u2019intelligence artificiel. Nous introduisons cette discipline aujourd\u2019hui majeure par le biais de la notion de classification. L\u2019objectif est que les \u00e9tudiants se familiarisent avec la plupart des concepts et r\u00e9sultats majeurs de la classification supervis\u00e9e, qui sont essentiels pour aborder d\u2019autres cadres de l\u2019apprentissage artificiel. Une introduction au cadre statistique de l\u2019apprentissage sera pr\u00e9sent\u00e9e, dans l\u2019objectif que la propri\u00e9t\u00e9 essentielle de g\u00e9n\u00e9ralisation soit acquise et contextualis\u00e9e. Sur cette base, les approches de classification lin\u00e9aire (SVM et perceptron) seront trait\u00e9es &#8212; avec une extension vers les m\u00e9thodes non-lin\u00e9aire via la notion de fonction noyau &#8211;. Le focus sur les SVM permettra notamment de sensibiliser les \u00e9tudiants \u00e0 la notion de r\u00e9gularisation, majeure en apprentissage artificiel. Enfin, la classification supervis\u00e9e sera abord\u00e9e \u00e0 travers l\u2019\u00e9tude d\u2019ensemble de classifieurs (mod\u00e8les additifs de classification et bootstraping).<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Chapitre 1. \u00a0Les fondamentaux de l&rsquo;apprentissage artificiel (propri\u00e9t\u00e9s d\u2019un \u00e9chantillon, minimisation du risque, g\u00e9n\u00e9ralisation, espace d\u2019hypoth\u00e8se, biais et variance des estimateurs, r\u00e8gle majoritaire et r\u00e8gle de Bayes) : d\u00e9finition formelle du cas de le la classification supervis\u00e9e<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Chapitre 2. Classification supervis\u00e9e lin\u00e9aire : perceptron et SVM<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Chapitre 3. Classification supervis\u00e9e non-lin\u00e9aire : perceptron et SVM \u00e0 noyaux, principe de la r\u00e9gularisation<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Chapitre 4. M\u00e9thodes ensemblistes (bagging, boosting)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Les TP et TD seront des ateliers de pratique du cours, \u00e0 partir de donn\u00e9es artificielles (contr\u00f4l\u00e9es) et r\u00e9elles, avec visualisation des effets de la transformation des donn\u00e9es par m\u00e9thodes \u00e0 noyaux. Un effort de programmation d\u2019algorithmes d\u2019apprentissage en python sera notamment demand\u00e9. Tr\u00e8s rapidement, nous proposerons la participation des \u00e9tudiants \u00e0 un challenge de la plate-forme ENS Challenge Data, sur des donn\u00e9es r\u00e9elles et difficiles, par exemple le challenge Reminiz.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bibliographie:<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Apprentissage Artificiel (A. Cornu\u00e9jols, L. Miclet, 2\u00e8me \u00e9dition, Eyrolles)<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">C\u00e9cile Capponi (responsable)<\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Mod\u00e9lisation et r\u00e9solution pour la d\u00e9cision (M1)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Les formalismes CSP (Probl\u00e8me de Satisfaction de Contraintes) et SAT (probl\u00e8me de satisfiabilit\u00e9 en logique propositionnelle) permettent d\u2019exprimer ais\u00e9ment des probl\u00e8mes de d\u00e9cision en mettant en relation des variables \u00e0 l\u2019aide de contraintes ou de clauses.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ils offrent un cadre relativement puissant permettant de repr\u00e9senter de nombreux probl\u00e8mes industriels et acad\u00e9miques (probl\u00e8me d\u2019allocation de fr\u00e9quence, ordonnancement, cryptographie, bioinformatique, etc.) \u00a0tout en disposant d\u2019outils efficaces (solveurs) pour leur r\u00e9solution.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Pour chaque formalisme, l\u2019\u00e9tudiant devra appr\u00e9hender les techniques de r\u00e9solution et surtout \u00eatre capable de mod\u00e9liser de nouveaux probl\u00e8mes. Diff\u00e9rentes mod\u00e9lisations \u00e9tant envisageables, il devra \u00eatre en mesure d\u2019orienter ses choix en tenant compte des sp\u00e9cificit\u00e9s des solveurs employ\u00e9s.<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Plan du cours :<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Cours 1 \/ TD 1 (5h) : CSP (formalisme et r\u00e9solution)<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Cours 2 \/ TD 2 (5h) : SAT (formalisme et r\u00e9solution)<\/span><\/li>\n<\/ul>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Djamal Habet<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Cyril Terrioux<\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><span style=\"font-weight: 400;\">\f<\/span><b>M\u00e9thodes num\u00e9riques pour l\u2019informatique (M1)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><i> <\/i><\/h4>\n<p><span style=\"font-weight: 400;\">L\u2019objectif de ce cours est de donner les bases math\u00e9matiques n\u00e9cessaires pour suivre les cours des parcours IMD? , <\/span><i><span style=\"font-weight: 400;\">G\u00e9om\u00e9trie Informatique Graphique<\/span><\/i><span style=\"font-weight: 400;\"> (GIG) et <\/span><i><span style=\"font-weight: 400;\">Intelligence Artificielle et Apprentissage Automatique<\/span><\/i><span style=\"font-weight: 400;\"> (IAAA). Les diff\u00e9rentes notions seront abord\u00e9es \u00e0 la fois par leurs aspects th\u00e9oriques et pratiques. En prenant comme base commune l\u2019alg\u00e8bre lin\u00e9aire, ce cours pr\u00e9sentera des notions de calculs vectoriels et matriciels, les bases pour la r\u00e9solution de syst\u00e8mes d\u2019\u00e9quations lin\u00e9aires pour aller vers l\u2019optimisation num\u00e9rique&#8230;<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Le cours se d\u00e9compose en trois parties :<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Rappel d\u2019alg\u00e8bre lin\u00e9aire (vecteurs, matrices), espace de Hilbert, normes, distances, calcul matriciel, matrices classiques (rotation, permutation\u2026), fonctions (gradient, d\u00e9riv\u00e9).<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">R\u00e9solution de syst\u00e8mes d\u2019\u00e9quations lin\u00e9aires, m\u00e9thode de Newton, m\u00e9thode du gradient conjugu\u00e9, m\u00e9thode des moindres carr\u00e9s.<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Optimisation non-lin\u00e9aire, descente de gradient, KKT, contraintes<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">Les cours seront accompagn\u00e9s de TD et TP o\u00f9 seront propos\u00e9s des exemples concrets des notions et m\u00e9thodes pr\u00e9sent\u00e9es. Les TP seront effectu\u00e9s en Python.<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p>Valentin Emyia<\/p>\n<p>Alexandra Bac<\/p>\n<hr \/><hr \/>\n<h1>\u00a0<\/h1>\n<h1 style=\"text-align: center;\">D\u00e9tails des UEs de M2<\/h1>\n<h2>\u00a0<b>\f<\/b><\/h2>\n<h3><b>Maths pour l\u2019intelligence artificielle (M2)<\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">L\u2019objectif de cette enseignement est de compl\u00e9ter la formation suivie en M1 informatique pour s&rsquo;assurer que les \u00e9tudiants poss\u00e8dent le bagage math\u00e9matiques minimal n\u00e9cessaire pour une utilisation ma\u00eetris\u00e9e des outils de l&rsquo;apprentissage automatique.<\/span><\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<ol>\n<li>Optimisation continue\n<ol>\n<li>Rappel : fonctions lisses, non convexes, sans contraintes<\/li>\n<li>Fonctions lisses, non convexes, avec contraintes<\/li>\n<li>Fonctions lisses, convexes, avec ou sans contraintes (et dualit\u00e9)<\/li>\n<li>Ouverture vers le cas des fonctions non-lisses (convexes ou non, avec ou sans contraintes)<\/li>\n<\/ol>\n<\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Probabilit\u00e9s et statistique<\/span>\n<ol>\n<li>Calcul probabiliste et estimateur du maximum de vraisemblance<\/li>\n<li>Biais, variance et risque d&rsquo;un estimateur<\/li>\n<\/ol>\n<\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Alg\u00e8bre lin\u00e9aire<\/span>\n<ol>\n<li>Interpr\u00e9tations des op\u00e9rations matricielles<\/li>\n<li>D\u00e9composition en valeurs singuli\u00e8res et application \u00e0 l&rsquo;\u00e9tude de la r\u00e9gression lin\u00e9aire<\/li>\n<\/ol>\n<\/li>\n<\/ol>\n<h4>\u00a0<\/h4>\n<p>\u00a0<\/p>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p>Thomas Schatz<\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><a href=\"https:\/\/pageperso.lis-lab.fr\/thierry.artieres\/?page_id=375\"><b>Science des donn\u00e9es (M2)<\/b><\/a><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">L\u2019objectif de ce cours est de former les \u00e9tudiants \u00e0 pouvoir r\u00e9pondre \u00e0 une comp\u00e9tition Kaggle quelle qu\u2019elle soit avec des m\u00e9thodes avanc\u00e9es de machine learning. Le cours dresse un panorama avanc\u00e9 de l\u2019apprentissage automatique qu\u2019il s\u2019agisse des paradigmes d\u2019apprentissage (supervis\u00e9, non supervis\u00e9, semi-supervis\u00e9, actif, transductif\u2026), des t\u00e2ches (classification, r\u00e9gression, ranking, metric learning, pr\u00e9diction structur\u00e9e, classification multilabel, multi-instances ou multitaches) ou des m\u00e9thodes.<\/span><\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<h4><span style=\"font-weight: 400;\">1. Rappels et g\u00e9n\u00e9ralit\u00e9s<\/span><\/h4>\n<ul>\n<li><span style=\"font-weight: 400;\">Contexte et enjeux <\/span><\/li>\n<li><span style=\"font-weight: 400;\">Introduction \u00e0 l\u2019apprentissage automatique supervis\u00e9\u00a0<\/span><\/li>\n<li>Mise au point d\u2019un syst\u00e8me par apprentissage automatique (\u00e9valuation, Grid-Search, Validation crois\u00e9e)<\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">2. Panorama des m\u00e9thodes de classification supervis\u00e9e<\/span><\/p>\n<ul>\n<li><span style=\"font-weight: 400;\">kPPV, Arbres de d\u00e9cision<\/span><\/li>\n<li><span style=\"font-weight: 400;\">SVM et m\u00e9thodes \u00e0 noyaux<\/span><\/li>\n<li><span style=\"font-weight: 400;\">R\u00e9gression logistique<\/span><span style=\"font-weight: 400;\"><br \/><\/span><\/li>\n<\/ul>\n<p>3. G\u00e9n\u00e9ralisation<\/p>\n<ul>\n<li><span style=\"font-weight: 400;\">Minimisation du risque structurel<\/span><\/li>\n<li><span style=\"font-weight: 400;\">Borne de g\u00e9n\u00e9ralisation<\/span><\/li>\n<li><span style=\"font-weight: 400;\">S\u00e9lection de variables<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">4. Apprentissage et donn\u00e9es sociales<\/span><\/p>\n<ul>\n<li><span style=\"font-weight: 400;\">Filtrage collaboratif, recommandation et ranking<\/span><\/li>\n<li><span style=\"font-weight: 400;\">Inf\u00e9rence dans les graphes (r\u00e9seaux sociaux)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">5. Apprentissage non supervis\u00e9<\/span><\/p>\n<ul>\n<li><span style=\"font-weight: 400;\">Clustering et m\u00e9thodes \u00e0 variables latentes (LSA, LDA, Topic models, etc)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">6. Autres cadres d\u2019apprentissage<\/span><\/p>\n<ul>\n<li><span style=\"font-weight: 400;\">Apprentissage semi-supervis\u00e9 et transductif<\/span><\/li>\n<li><span style=\"font-weight: 400;\">Adaptation de domaine et transfert<\/span><\/li>\n<li><span style=\"font-weight: 400;\">Few shot learning<\/span><\/li>\n<\/ul>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Thierry Arti\u00e8res (responsable)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hachem Kadri<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Valentin Emiya<\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Traitement du langage naturel et linguistique (M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Le traitement automatique du langage naturel est \u00e0 la confluence de nombreuses disciplines, dont la linguistique, l\u2019apprentissage automatique, l\u2019intelligence artificielle\u2026 <\/span><\/p>\n<p><span style=\"font-weight: 400;\">L\u2019objectif de cette UE est de pr\u00e9senter d\u2019une part un certain nombre de t\u00e2ches linguistiques, tel que l\u2019analyse morphologique, syntaxique, s\u00e9mantique et discursive et, d\u2019autre part, la mani\u00e8re de les formaliser dans le but de les automatiser. On mettra en particulier l\u2019accent sur la pr\u00e9diction d\u2019arbres et de graphes qui sont utilis\u00e9es pour l\u2019analyse syntaxique et s\u00e9mantique.<\/span><\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Repr\u00e9sentation des structures syntaxiques, s\u00e9mantiques et discursive pour le langage naturel.<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Pr\u00e9diction de structures par exploration compl\u00e8te de l\u2019espace de recherche<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Pr\u00e9diction gloutonne de structures<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Bibliographie:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Dependency Parsing, Sandra K\u00fcbler, Ryan McDonald, Joakim Nivre, Morgan Claypool, 2009<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics and Speech Recognition, Daniel Jurafsky, James Martin, Pearson Intrernational Edition, 2008<\/span><\/li>\n<\/ul>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Alexis Nasr (responsable)<\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><a href=\"https:\/\/pageperso.lis-lab.fr\/thierry.artieres\/?page_id=402\"><b>Deep learning (M2)<\/b><\/a><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Le deep learning a permis des avanc\u00e9es majeures pour des probl\u00e8mes difficiles tels que des t\u00e2ches de perception (vision, audition), de traitement de la langue (traduction&#8230;). Cette technologie envahit de nombreux champs applicatifs est est int\u00e9gr\u00e9e dans des syst\u00e8mes industriels chez de multiples acteurs y compris les plus grands (Google, Microsoft, Amazon, Facebook, etc). L\u2019objectif du cours est de former les \u00e9tudiants \u00e0 l\u2019utilisation de toolkits de deep learning et \u00e0 la conception de syst\u00e8mes bas\u00e9s sur des architectures classiques, autoencodeurs, r\u00e9seaux convolutionnels, r\u00e9seaux r\u00e9currents, et des id\u00e9es r\u00e9centes telles que les embeddings, l\u2019adversarial learning, les m\u00e9canismes d\u2019attention&#8230;<\/span><\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<ol>\n<li><span style=\"font-weight: 400;\"> Introduction aux r\u00e9seaux de neurones<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">o Perceptrons multicouches et Autoencodeurs<\/span><\/p>\n<p><span style=\"font-weight: 400;\">o Strat\u00e9gies de r\u00e9gularisation : L1, L2, Parcimonie, Dropout<\/span><\/p>\n<ol start=\"2\">\n<li><span style=\"font-weight: 400;\"> Architectures convolutionnelles<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">o Convolution temporelle et spatiale, couches de dilatation<\/span><\/p>\n<p><span style=\"font-weight: 400;\">o Hi\u00e9rarchie de repr\u00e9sentations. Visualisation des filtres<\/span><\/p>\n<p><span style=\"font-weight: 400;\">o G\u00e9n\u00e9ricit\u00e9 des repr\u00e9sentations apprises<\/span><\/p>\n<ol start=\"3\">\n<li><span style=\"font-weight: 400;\"> Optimisation de mod\u00e8les profonds<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">o Algorithmes d\u2019optimisation et variantes (SGD, Adam, Adagrad, RMSprop\u2026), Local et Batch Normalization<\/span><\/p>\n<p><span style=\"font-weight: 400;\">o Augmentation des donn\u00e9es<\/span><\/p>\n<p><span style=\"font-weight: 400;\">o Grid Searching<\/span><\/p>\n<ol start=\"4\">\n<li><span style=\"font-weight: 400;\"> Mod\u00e8les \u00e0 m\u00e9moire et m\u00e9canismes d&rsquo;attention<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">o Memory networks, end-to-end memory networks<\/span><\/p>\n<p><span style=\"font-weight: 400;\">o M\u00e9canismes d\u2019attention<\/span><\/p>\n<ol start=\"5\">\n<li><span style=\"font-weight: 400;\"> Adversarial Learning<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">o GANs, Adversarial Autoencoders et Variational Autoencoders<\/span><\/p>\n<p><span style=\"font-weight: 400;\">o Variantes conditionnelles: CGANs, ICGANs, Cyclyc GANS etc<\/span><\/p>\n<ol start=\"6\">\n<li><span style=\"font-weight: 400;\"> Architectures tr\u00e8s profondes et conception de syst\u00e8mes <\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">o Pr\u00e9sentation des architectures tr\u00e8s profondes : Vgg, Highway Networks, ResNets, Networks<\/span><\/p>\n<p><span style=\"font-weight: 400;\">o R\u00e9utilisation d&rsquo;architectures existantes pour la conception d\u2019applications <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Au cours des TPs un travail en \u00e9quipe sera r\u00e9alis\u00e9 \u00a0sur des comp\u00e9titions Kaggle. Au choix (\u00e0 actualiser en fonction des comp\u00e9titions du moment): Plant Seedlings Classification, Dog Breed Identification, ImageNet Object Detection Challenge)<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Thierry Arti\u00e8res<\/span><\/p>\n<p><span style=\"font-weight: 400;\">St\u00e9phane Ayache<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ronan Sicre<\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Mod\u00e9lisation et r\u00e9solution pour l&rsquo;optimisation (M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Cette UE fait suite \u00e0 l\u2019UE Mod\u00e9lisation et r\u00e9solution pour la d\u00e9cision du M1.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Parmi les probl\u00e8mes r\u00e9els, les probl\u00e8mes d\u2019optimisation sont en g\u00e9n\u00e9ral plus fr\u00e9quents que les probl\u00e8mes de d\u00e9cision. De plus, leur r\u00e9solution est souvent plus difficile que celle des probl\u00e8mes de d\u00e9cision associ\u00e9s et n\u00e9cessite des techniques de r\u00e9solution adapt\u00e9s.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Les formalismes \u00e0 base de contraintes, comme COP (Probl\u00e8me d\u2019Optimisation sous Contraintes), WCSP (CSP Pond\u00e9r\u00e9s), et Max-SAT (Satisfiabilit\u00e9 maximum), permettent d\u2019exprimer ais\u00e9ment des probl\u00e8mes d\u2019optimisation en mettant en relation des variables \u00e0 l\u2019aide de contraintes ou de clauses.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ils offrent un cadre relativement puissant permettant de repr\u00e9senter de nombreux probl\u00e8mes industriels et acad\u00e9miques (probl\u00e8me d\u2019allocation de fr\u00e9quence, ordonnancement, cryptographie, bioinformatique, etc.) \u00a0tout en disposant d\u2019outils efficaces (solveurs) pour leur r\u00e9solution.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Pour chaque formalisme, l\u2019\u00e9tudiant devra appr\u00e9hender les techniques de r\u00e9solution et surtout \u00eatre capable de mod\u00e9liser de nouveaux probl\u00e8mes. Diff\u00e9rentes mod\u00e9lisations \u00e9tant envisageables, il devra \u00eatre en mesure d\u2019orienter ses choix en tenant compte des sp\u00e9cificit\u00e9s des solveurs employ\u00e9s.<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Plan du cours :<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Cours 1 \/ TD 1 (2h) : COP (formalisme et r\u00e9solution)<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Cours 2 \/ TD 2 \u00a0(3h) : WCSP (formalisme et r\u00e9solution)<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Cours 3 \/ TD 3 (5h) : Max-SAT (formalisme et r\u00e9solution)<\/span><\/li>\n<\/ul>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p>Cyril Terrioux (responsable)<\/p>\n<p><span style=\"font-weight: 400;\">Djamal Habet<\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>M\u00e9thodologie (M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p>Ce cours porte sur la m\u00e9thodologie, les pratiques, les conventions et les pi\u00e8ges \u00e0 \u00e9viter en science des donn\u00e9es et machine learning (ML). Le parti pris est de s&rsquo;appuyer sur des exemples concrets, pour ensuite aborder des notions plus abstraites de m\u00e9thodologie scientifique, afin de (a) rendre agr\u00e9able le th\u00e8me de la m\u00e9thodologie, souvent consid\u00e9r\u00e9 comme mineur ou ennuyeux, (b) justifier l&rsquo;importance des notions abstraites, et (c) s&rsquo;entra\u00eener sur des comp\u00e9tences pratiques utiles et essentielles (p.ex. lors du stage de fin de master).<\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<ol>\n<li>Conception d&rsquo;une exp\u00e9rience : question scientifique, pertinence et justification, bibliographie, lecture critique d&rsquo;articles<\/li>\n<li>Cr\u00e9ation de jeux de donn\u00e9es : s\u00e9lection de donn\u00e9es, annotation de donn\u00e9es, accord inter-annotateur\/ice, biais dans les jeux de donn\u00e9es<\/li>\n<li>Environnement exp\u00e9rimental (d\u00e9tails importants) : instabilit\u00e9 des mod\u00e8les, reproductibilit\u00e9 vs. r\u00e9plicabilit\u00e9, hyper-param\u00e9trage, RGPD, aspects \u00e9thiques<\/li>\n<li>Analyse de r\u00e9sultats d&rsquo;un mod\u00e8le : m\u00e9triques d&rsquo;\u00e9valuation, comparaison de syst\u00e8mes, significativit\u00e9 statistique, test d&rsquo;hypoth\u00e8ses param\u00e9triques et non param\u00e9triques, p-value<\/li>\n<\/ol>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p>Carlos Ramisch (responsable)<\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Apprentissage par renforcement (option M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">D\u00e9crire ici l\u2019\u00e9tat dans lequel on veut que l\u2019\u00e9tudiant soit apr\u00e8s avoir suivi l\u2019UE : ce que l\u2019on veut lui faire comprendre, qu\u2019il sache faire \u00e0 la fin de l\u2019UE. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">L\u2019objectif de cet UE est de fournir \u00e0 l\u2019\u00e9tudiant les bases de l\u2019apprentissage par renforcement. Les th\u00e9matiques abord\u00e9es seront : algorithmes de bandit, Monte Carlo Tree Search, TD-learning. Le TP et le TD seront consacr\u00e9s \u00e0 la r\u00e9alisation d\u2019un projet : programme de jeu de r\u00e9flexion, pilotage de voiture, commande de robot.<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Plan du cours<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Multi-armed bandits &#8212; algorithme UCB<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Multi-armed bandits &#8212; algorithme Thompson Sampling<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Monte Carlo Tree search<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Markov Decision process<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">TD Learning<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Travail en bin\u00f4me sur des projets.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bibliographie (disponibles en ligne)<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Reinforcement Learning: An Introduction, by Richard S. Sutton and Andrew G. Barto<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Algorithms for Reinforcement learning, by Csaba Szepesvari <\/span><\/li>\n<\/ul>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Valentin Emiya (responsable)<br \/><\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Signal, Apprentissage et Multim\u00e9dia (option M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Cette UE fournit un bagage minimal de connaissances et comp\u00e9tences sur le traitement des donn\u00e9es s\u00e9quentielles telles que les signaux audio, les images, les vid\u00e9os. Elle s&rsquo;adresse \u00e0 un public d&rsquo;informaticiens ayant vocation \u00e0 traiter ces types de donn\u00e9es et n&rsquo;ayant pas suivi une formation de traitement des signaux, images et vid\u00e9o en math\u00e9matiques. Les objectifs sont:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">d&rsquo;acqu\u00e9rir des connaissances et comp\u00e9tences de base ainsi qu&rsquo;une exp\u00e9rience dans le traitement des donn\u00e9es multim\u00e9dia (audio, image, vid\u00e9o) et les t\u00e2ches d&rsquo;apprentissage associ\u00e9es<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">de prendre du recul sur des probl\u00e8mes et m\u00e9thodes g\u00e9n\u00e9riques aux diff\u00e9rentes modalit\u00e9s, consid\u00e9r\u00e9es comme des s\u00e9quences, afin de pouvoir transf\u00e9rer ces approches d&rsquo;un domaine \u00e0 l&rsquo;autre<\/span><\/li>\n<\/ul>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Les notions seront introduites et illustr\u00e9es de fa\u00e7on \u00e0 favoriser d&rsquo;une part une compr\u00e9hension intuitive et d&rsquo;autre part un formalisme appropri\u00e9 pour une utilisation pratique (programmation, exp\u00e9rimentation), en minimisant les pr\u00e9-requis math\u00e9matiques n\u00e9cessaires.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Plan :<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Bases d&rsquo;\u00e9chantillonnage et de temps-fr\u00e9quence (6h environ): d\u00e9finition, th\u00e9or\u00e8me d&rsquo;\u00e9chantillonnage de Shannon, notion de repliement spectral, exemples dans les images et les sons.<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Notions de filtrage et de convolution (6h environ) : formulation, interpr\u00e9tation fr\u00e9quentielle, exemples de filtres (lissage, d\u00e9rivation, etc.) et d&rsquo;application aux images et aux sons, lien avec les couches convolutives des r\u00e9seaux de neurones<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Segmentation des images et des signaux audio, extraction de caract\u00e9ristiques (MFCC, etc.), notions de perception (6h environ)<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Une application parmi plusieurs possibilit\u00e9s (9h environ):<\/span>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Reconnaissance (ou synth\u00e8se) de la parole : \u00e9laboration d&rsquo;un syst\u00e8me de reconnaissance de phon\u00e8me \u00e0 partir de MFCC par r\u00e9seaux de neurones<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Voice activity detection, d\u00e9tection parole\/musique\/silence, classification de genres musicaux<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Bandwidth extension en audio \/ Super-r\u00e9solution dans les images<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Cross-modalit\u00e9: espace de repr\u00e9sentation cross-modaux ou traduction d&rsquo;une modalit\u00e9 en une autre.<\/span><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Valentin Emiya<\/span><\/p>\n<p>Leonor Becerra-Bonache<\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Pr\u00e9dictions structur\u00e9es pour le traitement automatique du langage (option M2)<\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p>Ce cours introduit des mod\u00e8les, algorithmes, ressources et outils pour la r\u00e9solution de probl\u00e8mes structur\u00e9s en traitement automatique des langues (TAL), en particulier \u00e0 l&rsquo;aide de m\u00e9thodes d&rsquo;apprentissage profond (<i>deep learning<\/i>).<\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<ol>\n<li>Introduction aux t\u00e2ches et \u00e0 la mod\u00e9lisation des probl\u00e8mes structur\u00e9s en TAL, notamment pour l&rsquo;\u00e9tiquetage de s\u00e9quences<\/li>\n<li>Programmation pytorch avanc\u00e9e pour des t\u00e2ches complexes (modules, batches, &#8230;)<\/li>\n<li>Mod\u00e8les de markov cach\u00e9s et algorithme de Viterbi, avec application \u00e0 l&rsquo;\u00e9tiquetage et \u00e0 la segmentation de textes<\/li>\n<li>Mod\u00e9lisation du vocabulaire via des informations sous-lexicales, p.ex. \u00e0 l&rsquo;aide de mod\u00e8les RNN ou convolution 1D sur les caract\u00e8res<\/li>\n<li>Usage de mod\u00e8les de langage pr\u00e9-entra\u00een\u00e9s\u00e0 base de transformeurs (p.ex. BERT) pour la pr\u00e9diction structur\u00e9e, embeddings contextuels, fine-tuning<\/li>\n<li>Analyse syntaxique probabiliste avec\/sans grammaire (p.ex. PCFG, transitions, graphes)<\/li>\n<\/ol>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Carlos Ramisch (responsable)<\/span><\/p>\n<p>Ce cours a \u00e9t\u00e9 adapt\u00e9 \u00e0 partir du cours PSTALN par Benoit Favre : <br \/><a href=\"https:\/\/pageperso.lis-lab.fr\/benoit.favre\/pstaln\/\">https:\/\/pageperso.lis-lab.fr\/benoit.favre\/pstaln\/<\/a><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Raisonnement automatique en milieu industriel (option M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Expliquer le sch\u00e9ma g\u00e9n\u00e9ral de conception d&rsquo;un syst\u00e8me d&rsquo;aide \u00e0 la d\u00e9cision. L\u2019illustrer \u00e0 travers des cas concrets ayant d\u00e9j\u00e0 \u00e9t\u00e9 mis en oeuvre en milieu industriel. \u00a0<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Apr\u00e8s avoir d\u00e9fini ce qu\u2019est un syst\u00e8me d\u2019aide \u00e0 la d\u00e9cision et quels sont ses composants, on expliquera comment choisir les composants en fonction du type de donn\u00e9es qu\u2019il faut traiter.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ensuite, diff\u00e9rents industriels interviendront pour pr\u00e9senter des cas concrets sur lesquels ils ont travaill\u00e9. Ils pr\u00e9senteront des probl\u00e8mes industriels et \u00e9tudieront comment ils ont \u00e9t\u00e9 mod\u00e9lis\u00e9s et r\u00e9solus. \u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Pr\u00e9requis : l\u2019UE \u201cMod\u00e9lisation et r\u00e9solution pour la d\u00e9cision\u201d.<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Nicolas Prcovic (responsable)<\/span><\/p>\n<p>Intervenants industriels<\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Th\u00e9orie de l&rsquo;apprentissage et statistique non param\u00e9trique (option M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Ce cours pr\u00e9sente les concepts fondamentaux de l&rsquo;apprentissage automatique, y compris la description et l&rsquo;analyse de plusieurs algorithmes modernes, leur base th\u00e9orique et l&rsquo;illustration de leurs applications. Le cours abordera les notions suivantes : capacit\u00e9 de g\u00e9n\u00e9ralisation, complexit\u00e9 de Rademacher, stabilit\u00e9 algorithmique, SVM, m\u00e9thodes \u00e0 noyau, parcimonie, online-learning.<\/span><\/p>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<p><b>Plan <\/b><span style=\"font-weight: 400;\">(Cours au Tableau et TD sur machine) :<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Cours 1 : Introduction g\u00e9n\u00e9rale \u2013 Concepts et algorithmes (2h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Cours 2 : Complexit\u00e9 de Rademacher et VC-dimension (2h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Cours 3 : SVM et m\u00e9thodes \u00e0 noyau (2h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Cours 4 : Stabilit\u00e9 (2h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Cours 5 : Parcimonie (2h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Cours 6: Apprentissage en ligne (2h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TD 1 : Classification binaire (3h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TD 2 : Classification multi-class (3h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TD 3 : R\u00e9gression et parcimonie (2h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TD 4 : Apprentissage en ligne (2h)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">TD 5 : TD not\u00e9 et pr\u00e9sentation d\u2019articles<\/span><\/p>\n<p>R\u00e9f\u00e9rence <span style=\"font-weight: 400;\">:<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mohri, Mehryar, Afshin Rostamizadeh, and Ameet Talwalkar. <\/span><i><span style=\"font-weight: 400;\">Foundations of machine learning<\/span><\/i><span style=\"font-weight: 400;\">. MIT press, 2012.<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Hachem Kadri (responsable)<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Fran\u00e7ois-Xavier Dup\u00e9<\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Introduction aux Sciences Cognitives (option M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">L\u2019objectif principal de l\u2019UE est de fournir aux \u00e9tudiants une connaissance approfondie de l\u2019histoire de cette discipline scientifique r\u00e9cente d\u00e9nomm\u00e9 \u201cSciences cognitives\u201d, de son objet d\u2019\u00e9tude (la cognition humaine), de l\u2019\u00e9volution des hypoth\u00e8ses sur la nature\/ architecture cognitive sous-tendant l\u2019esprit humain (cybern\u00e9tique, cognitiviste-symbolique, connexionniste-sub-symbolique, incarn\u00e9e, ancr\u00e9e) ainsi que des grandes questions d\u00e9battues au cours de cette \u00e9volution (par exemple, l\u2019esprit humain utilise-t-il des symboles ? des repr\u00e9sentations ?). Pour faciliter la compr\u00e9hension de questions scientifiques quelquefois ardues, des exemples concrets issus d\u2019\u00e9tudes sur le langage seront \u00e9tudi\u00e9s, un des domaines phares dans l\u2019\u00e9volution du cadre th\u00e9orique des sciences cognitives.<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<h3><span style=\"font-weight: 400;\">Plan du cours<\/span><\/h3>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Qu&rsquo;est-ce que les Sciences Cognitives ? <\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Les conceptions de l&rsquo;architecture de l&rsquo;esprit humain<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">L&rsquo;exemple de l&rsquo;\u00e9tude du langage<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Bibliographie<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Andler, D. (\u00e9d 2004). Introduction aux sciences cognitives. Gallimard.<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Fodor, J. (1986). La modularit\u00e9 de l\u2019esprit. Les \u00e9ditions de Minuit. \u00a0<\/span><\/li>\n<\/ul>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Pascale Col\u00e9<\/span><\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Langage et Cognition (option M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p>A venir<\/p>\n<p><b>Programme d\u00e9taill\u00e9<\/b><\/p>\n<p>A venir<\/p>\n<hr \/>\n<h3>\u00a0<\/h3>\n<h3><b>Introduction \u00e0 la Neurobiologie (option M2)<br \/><\/b><\/h3>\n<h4><b>Objectifs de l\u2019UE<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Ce cours a pour but de donner des bases de neurobiologie et neurophysiologie.<\/span><\/p>\n<h4>\u00a0<\/h4>\n<h4><b>Programme d\u00e9taill\u00e9<\/b><\/h4>\n<ul>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">L\u2019organisation g\u00e9n\u00e9rale du syst\u00e8me nerveux<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Les signaux \u00e9lectriques des cellules nerveuses<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">La transmission synaptique et les neurotransmetteurs<\/span><\/li>\n<li style=\"font-weight: 400;\"><span style=\"font-weight: 400;\">Les bases des syst\u00e8mes sensoriels et moteurs<\/span><\/li>\n<\/ul>\n<h4>\u00a0<\/h4>\n<h4><b>\u00c9quipe enseignante<\/b><\/h4>\n<p><span style=\"font-weight: 400;\">Laurence Casini<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Franck Chaillan<\/span><\/p>\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>D\u00e9tails des UEs de M1 \f Introduction \u00e0 la science des donn\u00e9es (M1) Objectifs de l\u2019UE L\u2019objectif principal de l\u2019UE est de sensibiliser et familiariser l\u2019\u00e9tudiant avec les id\u00e9es, les algorithmes, les protocoles de base de la science de donn\u00e9es. Nous y traiterons ainsi des approches incontournables pour visualiser les donn\u00e9es, r\u00e9duire leurs dimensions, les&hellip;<\/p>\n","protected":false},"author":3,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-334","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/pages\/334","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=334"}],"version-history":[{"count":15,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/pages\/334\/revisions"}],"predecessor-version":[{"id":985,"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=\/wp\/v2\/pages\/334\/revisions\/985"}],"wp:attachment":[{"href":"https:\/\/iaaa.lis-lab.fr\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=334"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}