Commit a54fe254 authored by Antoine Caubrière's avatar Antoine Caubrière
Browse files

Intro V2

parent e3b16106
......@@ -28,11 +28,11 @@ Nous regroupons, dans la table~\ref{res:estimation-elec}, l'estimation du temps
\textbf{Chapitre} & \textbf{Temps de calcul GPU} & \textbf{kWh consommés} \\
\hline
\hline
Chapitre 5. & 139 jours & ~784 kWh \\
Chapitre 5. & 139 jours & 784 kWh \\
\hline
Chapitre 6. & 170 jours & ~959 kWh \\
Chapitre 6. & 170 jours & 959 kWh \\
\hline
Chapitre 7. & 4 jours & ~23 kWh \\
Chapitre 7. & 4 jours & 23 kWh \\
\hline
\hline
\textbf{Total} & \textbf{313} jours & \textbf{1 766} kWh\\
......@@ -51,7 +51,7 @@ Il est ainsi raisonnable de penser qu'avec la prise en compte de l'intégralité
Pour rendre compte de la consommation énergétique, il est à noté qu'avec $1 kWh$ il est possible d'alimenter un chauffage électrique pendant 1 heure l'hiver, mais également de parcourir 2 km dans une voiture électrique smart.
Pour davantage de correspondance, nous invitons le lecteur à consulter le site internet d
'\href{https://www.edf.fr/groupe-edf/espaces-dedies/l-energie-de-a-a-z/tout-sur-l-energie/le-developpement-durable/que-peut-on-faire-avec-1-kwh}{\textit{EDF}}.
'\textit{EDF}\footnote{\href{https://www.edf.fr/groupe-edf/espaces-dedies/l-energie-de-a-a-z/tout-sur-l-energie/le-developpement-durable/que-peut-on-faire-avec-1-kwh}{https://www.edf.fr/groupe-edf/espaces-dedies/l-energie-de-a-a-z/tout-sur-l-energie/le-developpement-durable/que-peut-on-faire-avec-1-kwh}}.
%https://www.edf.fr/groupe-edf/espaces-dedies/l-energie-de-a-a-z/tout-sur-l-energie/le-developpement-durable/que-peut-on-faire-avec-1-kwh
......
......@@ -3,10 +3,10 @@
\chaptermark{Introduction}
Cette thèse s'inscrit dans le contexte de la compréhension automatique de la parole.
Ces dernières années, la compréhension de la parole a suscité, et continue de susciter, un vif intérêt, tant dans un cadre de recherche, que d'applications industrielles.
En effet, la recherche dans ce domaine rend possible l'automatisation de tâches jusque là réservées à l'humain, comme l'indexation automatique de documents audios, ainsi que le résumé automatique de l'information essentielle.
Ces dernières années, la compréhension de la parole a suscité et continue de susciter un vif intérêt, tant dans un cadre de recherche que d'applications industrielles.
En effet, la recherche dans ce domaine rend possible l'automatisation de tâches jusque là réservées à l'humain, comme la segmentation et l'identification de thème de documents audios, ainsi que le résumé automatique de l'information essentielle.
L'intérêt pour l'automatisation de ces tâches provient du flux toujours grandissant de documents et d'informations générés et partagés de nos jours.
Les travaux de recherche en compréhension de la parole, il est également possible de faciliter les interactions humain-machine.
Les travaux de recherche en compréhension de la parole facilite également les interactions humain-machine.
Nous pensons notamment aux objets connectés, tels que les assistants personnels, ainsi que des services téléphoniques automatisés, comme la réservation d'hôtel ou de place de théâtre.
Dans un cadre général, la compréhension de la parole peut être définie comme la tâche d'interprétation des signes véhiculés par un signal de parole~[\cite{de2007spoken}].
......@@ -16,15 +16,15 @@ En informatique, il est nécessaire de projeter le sens d'un message dans une re
Il est compliqué de mettre en place une représentation structurée de la sémantique suffisamment générique pour réaliser la tâche de compréhension du langage ouvert.
Ainsi, la représentation sémantique exploitée pour effectuer la compréhension de la parole est très souvent définie de manière ad hoc.
C'est-à-dire en fonction d'un contexte applicatif précis.
Cette représentation spécifique rend possible la prise en charge de certaines tâches de compréhension de la parole comme des tâches de segmentation en mots support de concepts et d'étiquetage sémantique.
Elles peuvent ainsi être traitées par l'intermédiaire de méthodes d'apprentissages automatiques supervisés.
Cette représentation spécifique rend possible la prise en charge de certaines tâches de compréhension de la parole sous la forme de tâches de segmentation en mots support de concepts et d'étiquetage sémantique.
Elles peuvent ainsi être traitées par l'intermédiaire de méthodes d'apprentissage automatique supervisé.
Effectuer une projection directe de la dimension acoustique vers une représentation sémantique spécifique a été jusqu'alors une tâche trop complexe pour être envisagée directement par un unique système.
Il est ainsi question d'effectuer la mise en place d'une chaîne de traitements successifs avec tout d'abord un composant de reconnaissance de la parole, puis un composant de compréhension du langage appliqué sur les sorties du premier composant.
Il est ainsi question d'effectuer la mise en place d'une chaîne de traitements avec tout d'abord un composant de reconnaissance de la parole, puis à minima un composant de compréhension du langage appliqué sur les sorties du premier composant.
Au commencement de cette thèse en 2017, les technologies neuronales d'apprentissage profond sont les briques de base d'une chaîne de traitement à l'état de l'art.
Au commencement de cette thèse en 2017, les technologies neuronales d'apprentissage profond sont les briques de base d'une chaîne de traitements à l'état de l'art, avec des résultats similaires à ceux obtenus avec des CRF~[\cite{simonnet2018simulating}].
Malgré l'apport de ces technologies pour la tâche finale de compréhension, un obstacle subsiste au travers du principe même de la chaîne de traitements.
En effet, comme le composant de reconnaissance de la parole ne peut être parfait, il produit nécessairement une représentation textuelle bruitée.
En effet, le composant de reconnaissance de la parole produit une représentation textuelle bruitées par des erreurs.
Puis, par l'exploitation de cette représentation comme élément d'entrée du composant de compréhension de langue, ce bruit va inéluctablement impacter les performances du second composant.
De plus, la représentation textuelle agit comme un entonnoir et ne représente que le discours prononcé, alors que la parole contient des informations allant nécessairement au-delà du discours.
C'est-à-dire l'ensemble des informations présentes dans la parole, faisant partie du domaine de la paralinguistique, par exemple, la prosodie ou encore les disfluences.
......@@ -34,22 +34,21 @@ Cela se traduit par la mise en \oe{}uvre d'un unique système neuronale, entièr
Ainsi, ce système doit être responsable de la projection directe d'informations de la dimension acoustique vers une représentation sémantique structurée.
Avant cette thèse, de premiers travaux dans le domaine de la reconnaissance de la parole ont permis la mise en \oe{}uvre de systèmes permettant la projection directe d'informations de la dimension acoustiques vers une représentation textuelle~[\cite{hannun2014deep,amodei2016deep}].
Ces travaux ont exploité un unique modèle neuronal, alors que cette tâche était nécessairement réalisée par la combinaison de modèles acoustiques et de langues.
Ces travaux ont exploité un unique modèle neuronal, alors que cette tâche était au préalable réalisée par la combinaison de modèles acoustiques et de langues.
Dans le cadre de nos travaux, il est question d'étendre ces avancées à la compréhension de la parole.
Pour réaliser cette thèse, nous nous inscrivons dans un cadre applicatif que nous trouvons dans les tâches de reconnaissance des entités nommées, ainsi que d'extraction des concepts sémantiques dans la parole.
Il s'agit de deux tâches de compréhension faisant l'objet de travaux réguliers~[\cite{hatmi2014reconnaissance,simonnet2019reseaux}], pour lesquelles une grande quantité de données est disponible pour évaluer nos contributions.
Il s'agit de deux tâches de compréhension faisant l'objet de travaux réguliers~[\cite{sundheim1995overview,galliano2005ester,hatmi2014reconnaissance,simonnet2019reseaux}], pour lesquelles une quantité suffisante de données est disponible pour évaluer nos contributions.
Cependant, les données manuellement annotées pour des tâches aussi complexes que la compréhension de la parole ont un coût important, ce qui induit nécessairement leur rareté.
En effet, au-delà de nécessiter une transcription manuelle de la parole, un deuxième niveau d'annotation est nécessaire pour mettre en avant la sémantique selon une structure définie en fonction de la tâche.
Ainsi, pour la réalisation de nos travaux, une difficulté supplémentaire réside dans notre besoin de compenser le manque de données annotées pour la tâche finale.
Afin de contourner cette difficulté, nous nous intéressons aux méthodes d'augmentation automatique de données, mais aussi vers le transfert d'apprentissage~[\cite{pan2009survey}].
Afin de contourner cette difficulté, nous nous intéressons aux méthodes d'augmentation automatique de données, mais aussi au transfert d'apprentissage~[\cite{pan2009survey}].
Cette méthode consiste en l'exploitation d'un premier ensemble de données pour extraire des connaissances améliorant l'apprentissage sur un second ensemble de données.
Nous envisageons de bénéficier d'ensembles de données dédiés à la reconnaissance automatique de la parole, en raison de leur accessibilité en plus grande quantité.
Également, en portant nos travaux sur les entités nommées et les concepts sémantiques, nous envisageons de bénéficier de connaissances apportées par les entités nommées pour les concepts sémantiques.
En effet, les entités nommées ont la particularité d'avoir une définition sémantique plus générale correspondant aux briques élémentaires de l'information dans un document.
Nous envisageons de tirer parti d'ensembles de données dédiés à la reconnaissance automatique de la parole, en raison de leur accessibilité en plus grande quantité.
En exploitant notre cadre applicatif, nous envisageons aussi de bénéficier de connaissances apportées par les entités nommées pour traiter les concepts sémantiques.
\subsection*{Organisation du document}
......@@ -59,8 +58,8 @@ La première partie est dédiée à la présentation du contexte à travers un
Au sein du premier chapitre, nous abordons les notions fondamentales de l'apprentissage neuronal profond.
Il s'agit des technologies sur lesquelles reposent une grande majorité des travaux de cette thèse.
Nous évoquons l'émergence de ces technologies au travers du perceptron, le premier neurone formel, et des perceptrons multicouches.
Par la suite, nous décrivons les principaux algorithmes nécessaires à l'apprentissage profond, ainsi que les problématiques majoritaires de ce domaine.
Nous évoquons l'émergence de ces technologies à travers le perceptron, le premier neurone formel, et des perceptrons multicouches.
Par la suite, nous décrivons les principaux algorithmes nécessaires à l'apprentissage profond, ainsi que les problématiques majeures de ce domaine.
Nous abordons également les techniques développées pour répondre à ces problématiques.
Dans ce premier chapitre, nous détaillons aussi les variantes les plus récentes, comme les approches neuronales récurrentes, les architectures de type encodeur-décodeur ou encore les mécanismes d'attention.
......@@ -73,7 +72,6 @@ Enfin, nous effectuons une description des mesures d'évaluation de la qualité
Le troisième chapitre de ce manuscrit est dédié à la tâche de compréhension de la parole.
Nous définissons tout d'abord cette tâche qui est au c\oe{}ur de nos travaux.
C'est en soi une tâche complexe qui dépend nécessairement de la tâche visée par un système et se définit donc selon plusieurs déclinaisons.
Dans le cadre de cette thèse, nous considérons la compréhension de la parole comme une tâche de segmentation et de classification en concepts.
Nous détaillons les approches traditionnellement utilisées correspondant à l'apprentissage machine, mais aussi les approches plus récentes s'appuyant sur les réseaux de neurones.
Enfin, nous proposons une description des principales mesures d'évaluation des tâches de compréhension de la parole que nous avons exploitées pour nos contributions.
......
......@@ -5,6 +5,15 @@
school={Universit{\'e} de Nantes}
}
@techreport{sundheim1995overview,
title={Overview of results of the MUC-6 evaluation},
author={Sundheim, Beth M},
year={1995},
institution={Naval Command Control AND Ocean Surveillance Center, San Diego CA, USA}
}
%*******************
% *** Chapitre 1 ***
%*******************
......
This diff is collapsed.
This diff is collapsed.
This diff is collapsed.
[0] Config.pm:302> INFO - This is Biber 2.9
[0] Config.pm:305> INFO - Logfile is 'main.blg'
[28] biber:313> INFO - === mer. nov. 4, 2020, 17:35:22
[55] Biber.pm:371> INFO - Reading 'main.bcf'
[130] Biber.pm:857> INFO - Found 186 citekeys in bib section 0
[144] Biber.pm:3981> INFO - Processing section 0
[164] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio.bib' for section 0
[172] bibtex.pm:1468> INFO - LaTeX decoding ...
[337] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio.bib'
[1206] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio.bib_7808.utf8, line 386, warning: 49 characters of junk seen at toplevel
[1207] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio.bib_7808.utf8, line 537, warning: 14 characters of junk seen at toplevel
[1207] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio_perso.bib' for section 0
[1209] bibtex.pm:1468> INFO - LaTeX decoding ...
[1232] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio_perso.bib'
[1327] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 7, warning: undefined macro "Dec"
[1327] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 21, warning: undefined macro "Jul"
[1328] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 36, warning: undefined macro "Sep"
[1328] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 53, warning: undefined macro "Sep"
[1328] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 69, warning: undefined macro "Oct"
[1328] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 82, warning: undefined macro "Nov"
[1328] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 126, warning: undefined macro "Apr"
[1328] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 140, warning: undefined macro "May"
[1328] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 152, warning: undefined macro "May"
[1328] Utils.pm:169> WARN - BibTeX subsystem: /tmp/CHbhi3Uy4i/biblio_perso.bib_7808.utf8, line 165, warning: undefined macro "Oct"
[1328] Utils.pm:169> WARN - I didn't find a database entry for 'fillmore1976frame' (section 0)
[1328] Utils.pm:169> WARN - I didn't find a database entry for 'xie2015graph' (section 0)
[1704] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'variable = shifted' with 'variable = non-ignorable'
[1704] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'normalization = NFD' with 'normalization = prenormalized'
[1704] Biber.pm:3809> INFO - Sorting list 'apa/global//global/global' of type 'entry' with template 'apa' and locale 'fr-FR'
[1704] Biber.pm:3815> INFO - No sort tailoring available for locale 'fr-FR'
[1877] bbl.pm:617> INFO - Writing 'main.bbl' with encoding 'UTF-8'
[2047] bbl.pm:720> INFO - Output to main.bbl
[2047] Biber.pm:110> INFO - WARNINGS: 14
This diff is collapsed.
......@@ -115,6 +115,6 @@
\defcounter {refsection}{0}\relax
\contentsline {table}{\numberline {8.3}{\ignorespaces R\IeC {\'e}sultats de fiabilit\IeC {\'e} des mesures de confiance produites par le classifieur externe (ces r\IeC {\'e}sultats sont report\IeC {\'e}s de la table~\ref {tab:NCE_ns}).}}{171}{table.8.3}
\defcounter {refsection}{0}\relax
\contentsline {table}{\numberline {8.4}{\ignorespaces Estimation du temps de calcul et de la consommation \IeC {\'e}nerg\IeC {\'e}tique associ\IeC {\'e}e pour la reproduction des r\IeC {\'e}sultats pr\IeC {\'e}sent\IeC {\'e}s dans cette th\IeC {\`e}se.}}{175}{table.8.4}
\contentsline {table}{\numberline {8.4}{\ignorespaces Estimation du temps de calcul et de la consommation \IeC {\'e}nerg\IeC {\'e}tique associ\IeC {\'e}e pour la reproduction des r\IeC {\'e}sultats pr\IeC {\'e}sent\IeC {\'e}s dans cette th\IeC {\`e}se.}}{193}{table.8.4}
\babel@toc {french}{}
\babel@toc {english}{}
\BOOKMARK [0][-]{chapter*.6}{Introduction}{}% 1
\BOOKMARK [-1][-]{part.1}{I Contexte et \311tat de l'art}{}% 2
\BOOKMARK [0][-]{chapter.1}{R\351seau neuronal profond}{part.1}% 3
\BOOKMARK [1][-]{section.1.1}{Perceptron}{chapter.1}% 4
\BOOKMARK [1][-]{section.1.2}{Perceptron multicouche}{chapter.1}% 5
\BOOKMARK [1][-]{section.1.3}{Apprentissage Automatique}{chapter.1}% 6
\BOOKMARK [2][-]{subsection.1.3.1}{Algorithme de descente du gradient}{section.1.3}% 7
\BOOKMARK [2][-]{subsection.1.3.2}{Algorithme de R\351tropropagation}{section.1.3}% 8
\BOOKMARK [1][-]{section.1.4}{Optimisation de l'apprentissage}{chapter.1}% 9
\BOOKMARK [2][-]{subsection.1.4.1}{Momentum}{section.1.4}% 10
\BOOKMARK [2][-]{subsection.1.4.2}{Algorithmes d'optimisation adaptatifs}{section.1.4}% 11
\BOOKMARK [2][-]{subsection.1.4.3}{Initialisation des param\350tres neuronaux}{section.1.4}% 12
\BOOKMARK [2][-]{subsection.1.4.4}{R\351gularisation des r\351seaux}{section.1.4}% 13
\BOOKMARK [1][-]{section.1.5}{Sp\351cificit\351s de l'apprentissage neuronal}{chapter.1}% 14
\BOOKMARK [2][-]{subsection.1.5.1}{Disparition / Explosion du gradient}{section.1.5}% 15
\BOOKMARK [1][-]{section.1.6}{Mod\351lisation de s\351quences}{chapter.1}% 16
\BOOKMARK [2][-]{subsection.1.6.1}{R\351seau r\351current}{section.1.6}% 17
\BOOKMARK [2][-]{subsection.1.6.2}{R\351seau neuronal convolutif}{section.1.6}% 18
\BOOKMARK [2][-]{subsection.1.6.3}{Architecture Encodeur-D\351codeur}{section.1.6}% 19
\BOOKMARK [2][-]{subsection.1.6.4}{Transformers}{section.1.6}% 20
\BOOKMARK [1][-]{section.1.7}{Conclusion}{chapter.1}% 21
\BOOKMARK [0][-]{chapter.2}{Reconnaissance de la parole}{part.1}% 22
\BOOKMARK [1][-]{section.2.1}{D\351finition}{chapter.2}% 23
\BOOKMARK [1][-]{section.2.2}{Mod\351lisation acoustique Markovienne}{chapter.2}% 24
\BOOKMARK [2][-]{subsection.2.2.1}{Mod\350les de Markov cach\351s}{section.2.2}% 25
\BOOKMARK [2][-]{subsection.2.2.2}{Mod\350les \340 m\351lange de gaussiennes}{section.2.2}% 26
\BOOKMARK [2][-]{subsection.2.2.3}{Mod\350les neuronaux profonds}{section.2.2}% 27
\BOOKMARK [1][-]{section.2.3}{Mod\351lisation de langue}{chapter.2}% 28
\BOOKMARK [2][-]{subsection.2.3.1}{Mod\350le n-grammes}{section.2.3}% 29
\BOOKMARK [2][-]{subsection.2.3.2}{Mod\350les neuronaux}{section.2.3}% 30
\BOOKMARK [1][-]{section.2.4}{Approches neuronales de bout en bout}{chapter.2}% 31
\BOOKMARK [2][-]{subsection.2.4.1}{Classification Temporelle Connectionniste}{section.2.4}% 32
\BOOKMARK [2][-]{subsection.2.4.2}{Algorithme de Beam Search}{section.2.4}% 33
\BOOKMARK [2][-]{subsection.2.4.3}{Architecture encodeur-d\351codeur avec attention}{section.2.4}% 34
\BOOKMARK [1][-]{section.2.5}{\311valuation de la reconnaissance de la parole}{chapter.2}% 35
\BOOKMARK [1][-]{section.2.6}{Choix technologiques pour cette th\350se}{chapter.2}% 36
\BOOKMARK [1][-]{section.2.7}{Conclusion}{chapter.2}% 37
\BOOKMARK [0][-]{chapter.3}{Compr\351hension de la parole}{part.1}% 38
\BOOKMARK [1][-]{section.3.1}{Compr\351hension du langage appliqu\351e \340 la parole}{chapter.3}% 39
\BOOKMARK [2][-]{subsection.3.1.1}{D\351finition}{section.3.1}% 40
\BOOKMARK [2][-]{subsection.3.1.2}{Cha\356ne de traitements successifs}{section.3.1}% 41
\BOOKMARK [2][-]{subsection.3.1.3}{Reconnaissance des entit\351s nomm\351es}{section.3.1}% 42
\BOOKMARK [2][-]{subsection.3.1.4}{Extraction de concepts s\351mantiques}{section.3.1}% 43
\BOOKMARK [2][-]{subsection.3.1.5}{Autres t\342ches de compr\351hension}{section.3.1}% 44
\BOOKMARK [1][-]{section.3.2}{Approches historiques d'\351tiquetage}{chapter.3}% 45
\BOOKMARK [2][-]{subsection.3.2.1}{Automates \340 \351tats finis}{section.3.2}% 46
\BOOKMARK [2][-]{subsection.3.2.2}{Machines \340 vecteurs de support}{section.3.2}% 47
\BOOKMARK [2][-]{subsection.3.2.3}{Champs al\351atoires conditionnels}{section.3.2}% 48
\BOOKMARK [1][-]{section.3.3}{Approches neuronales}{chapter.3}% 49
\BOOKMARK [2][-]{subsection.3.3.1}{Repr\351sentation vectorielle des mots}{section.3.3}% 50
\BOOKMARK [2][-]{subsection.3.3.2}{R\351seaux de neurones r\351currents}{section.3.3}% 51
\BOOKMARK [2][-]{subsection.3.3.3}{Combinaison aux champs al\351atoires conditionnels}{section.3.3}% 52
\BOOKMARK [2][-]{subsection.3.3.4}{Exploitation des m\351canismes d'attention}{section.3.3}% 53
\BOOKMARK [1][-]{section.3.4}{\311valuation des performances d'un syst\350me de compr\351hension du langage}{chapter.3}% 54
\BOOKMARK [2][-]{subsection.3.4.1}{Pr\351cision, Rappel et F-Mesure}{section.3.4}% 55
\BOOKMARK [2][-]{subsection.3.4.2}{\311valuation des entit\351s nomm\351es}{section.3.4}% 56
\BOOKMARK [2][-]{subsection.3.4.3}{\311valuation des concepts s\351mantiques}{section.3.4}% 57
\BOOKMARK [1][-]{section.3.5}{Impact des transcriptions automatiques}{chapter.3}% 58
\BOOKMARK [1][-]{section.3.6}{Conclusion}{chapter.3}% 59
\BOOKMARK [0][-]{chapter.4}{Ensembles de donn\351es}{part.1}% 60
\BOOKMARK [1][-]{section.4.1}{Les corpus ESTER}{chapter.4}% 61
\BOOKMARK [2][-]{subsection.4.1.1}{ESTER 1}{section.4.1}% 62
\BOOKMARK [2][-]{subsection.4.1.2}{ESTER 2}{section.4.1}% 63
\BOOKMARK [2][-]{subsection.4.1.3}{Formalisme d'annotation en entit\351s nomm\351es ESTER}{section.4.1}% 64
\BOOKMARK [1][-]{section.4.2}{QU\306RO}{chapter.4}% 65
\BOOKMARK [2][-]{subsection.4.2.1}{Formalisme d'annotation en entit\351s nomm\351es QU\306RO}{section.4.2}% 66
\BOOKMARK [1][-]{section.4.3}{ETAPE}{chapter.4}% 67
\BOOKMARK [1][-]{section.4.4}{EPAC}{chapter.4}% 68
\BOOKMARK [1][-]{section.4.5}{REPERE}{chapter.4}% 69
\BOOKMARK [1][-]{section.4.6}{Les corpus MEDIA et PORTMEDIA}{chapter.4}% 70
\BOOKMARK [2][-]{subsection.4.6.1}{MEDIA}{section.4.6}% 71
\BOOKMARK [2][-]{subsection.4.6.2}{PORTMEDIA}{section.4.6}% 72
\BOOKMARK [2][-]{subsection.4.6.3}{Formalisme d'annotation en concepts s\351mantiques}{section.4.6}% 73
\BOOKMARK [1][-]{section.4.7}{DECODA}{chapter.4}% 74
\BOOKMARK [1][-]{section.4.8}{R\351partition des donn\351es au sein de cette th\350se}{chapter.4}% 75
\BOOKMARK [-1][-]{part.2}{II Contributions}{}% 76
\BOOKMARK [0][-]{chapter.5}{Reconnaissance d'entit\351s nomm\351es}{part.2}% 77
\BOOKMARK [1][-]{section.5.1}{Contexte des travaux : ETAPE}{chapter.5}% 78
\BOOKMARK [2][-]{subsection.5.1.1}{R\351sultats de la campagne}{section.5.1}% 79
\BOOKMARK [1][-]{section.5.2}{REN structur\351e par cha\356ne de composants}{chapter.5}% 80
\BOOKMARK [2][-]{subsection.5.2.1}{Reconnaissance Automatique de la Parole mise \340 jour}{section.5.2}% 81
\BOOKMARK [2][-]{subsection.5.2.2}{Reconnaissance des Entit\351s Nomm\351es mise \340 jour}{section.5.2}% 82
\BOOKMARK [2][-]{subsection.5.2.3}{Limite du formalisme BIO}{section.5.2}% 83
\BOOKMARK [2][-]{subsection.5.2.4}{Impl\351mentation en trois niveaux}{section.5.2}% 84
\BOOKMARK [2][-]{subsection.5.2.5}{Exp\351rimentations et r\351sultats}{section.5.2}% 85
\BOOKMARK [1][-]{section.5.3}{REN simplifi\351e de bout en bout}{chapter.5}% 86
\BOOKMARK [2][-]{subsection.5.3.1}{D\351finition de la t\342che simplifi\351e}{section.5.3}% 87
\BOOKMARK [2][-]{subsection.5.3.2}{Syst\350me DeepSpeech 2}{section.5.3}% 88
\BOOKMARK [2][-]{subsection.5.3.3}{Alignement de parole et de transcriptions enrichies}{section.5.3}% 89
\BOOKMARK [2][-]{subsection.5.3.4}{Exp\351rimentations et r\351sultats}{section.5.3}% 90
\BOOKMARK [1][-]{section.5.4}{REN structur\351e de bout en bout}{chapter.5}% 91
\BOOKMARK [2][-]{subsection.5.4.1}{Mise en \234uvre de DeepSpeech 2}{section.5.4}% 92
\BOOKMARK [2][-]{subsection.5.4.2}{Extension du transfert d'apprentissage}{section.5.4}% 93
\BOOKMARK [2][-]{subsection.5.4.3}{Exp\351rimentations et r\351sultats}{section.5.4}% 94
\BOOKMARK [2][-]{subsection.5.4.4}{Comparaison avec l'approche en cha\356nes de composants}{section.5.4}% 95
\BOOKMARK [1][-]{section.5.5}{Conclusion}{chapter.5}% 96
\BOOKMARK [0][-]{chapter.6}{Extraction de concepts s\351mantiques}{part.2}% 97
\BOOKMARK [1][-]{section.6.1}{Application de l'approche de bout en bout \340 l'extraction concepts s\351mantiques}{chapter.6}% 98
\BOOKMARK [2][-]{subsection.6.1.1}{Approche par cha\356ne de composants}{section.6.1}% 99
\BOOKMARK [2][-]{subsection.6.1.2}{Premiers r\351sultats avec une approche de bout en bout}{section.6.1}% 100
\BOOKMARK [1][-]{section.6.2}{Transfert d'apprentissage pilot\351 par une strat\351gie de curriculum}{chapter.6}% 101
\BOOKMARK [2][-]{subsection.6.2.1}{Apprentissage par curriculum}{section.6.2}% 102
\BOOKMARK [2][-]{subsection.6.2.2}{Association du transfert et du curriculum d'apprentissage}{section.6.2}% 103
\BOOKMARK [2][-]{subsection.6.2.3}{Exp\351rimentations et r\351sultats}{section.6.2}% 104
\BOOKMARK [2][-]{subsection.6.2.4}{Analyse de l'apport des Entit\351s Nomm\351es}{section.6.2}% 105
\BOOKMARK [1][-]{section.6.3}{Impact de la profondeur du mod\350le}{chapter.6}% 106
\BOOKMARK [2][-]{subsection.6.3.1}{Comparaison de l'approche propos\351e avec une approche par chaine de composants}{section.6.3}% 107
\BOOKMARK [1][-]{section.6.4}{Conclusion}{chapter.6}% 108
\BOOKMARK [0][-]{chapter.7}{Analyse d'erreurs et exploitation de repr\351sentations internes}{part.2}% 109
\BOOKMARK [1][-]{section.7.1}{Contexte de l'analyse}{chapter.7}% 110
\BOOKMARK [1][-]{section.7.2}{Analyse d'erreur}{chapter.7}% 111
\BOOKMARK [2][-]{subsection.7.2.1}{Distribution des types d'erreurs}{section.7.2}% 112
\BOOKMARK [2][-]{subsection.7.2.2}{Probl\350me de reconnaissance des mots}{section.7.2}% 113
\BOOKMARK [2][-]{subsection.7.2.3}{Probl\350me de segmentation en concept}{section.7.2}% 114
\BOOKMARK [1][-]{section.7.3}{Analyse de repr\351sentations internes}{chapter.7}% 115
\BOOKMARK [2][-]{subsection.7.3.1}{Extraction des repr\351sentations}{section.7.3}% 116
\BOOKMARK [2][-]{subsection.7.3.2}{Visualisation des repr\351sentations}{section.7.3}% 117
\BOOKMARK [2][-]{subsection.7.3.3}{Entra\356nement de classifieurs externes}{section.7.3}% 118
\BOOKMARK [1][-]{section.7.4}{Mesure de confiance}{chapter.7}% 119
\BOOKMARK [2][-]{subsection.7.4.1}{Extraction de la mesure de confiance}{section.7.4}% 120
\BOOKMARK [2][-]{subsection.7.4.2}{Exp\351rimentations et r\351sultats}{section.7.4}% 121
\BOOKMARK [1][-]{section.7.5}{Conclusion}{chapter.7}% 122
\BOOKMARK [0][-]{chapter.8}{Conclusion et perspectives}{part.2}% 123
\BOOKMARK [1][-]{section.8.1}{Conclusion}{chapter.8}% 124
\BOOKMARK [1][-]{section.8.2}{Perspectives}{chapter.8}% 125
\BOOKMARK [0][-]{chapter*.56}{R\351f\351rences personnelles}{part.2}% 126
\BOOKMARK [0][-]{chapter*.59}{R\351f\351rences}{part.2}% 127
\BOOKMARK [0][-]{chapter*.60}{Annexes}{part.2}% 128
No preview for this file type
......@@ -95,10 +95,6 @@
\backmatter
\input{./Conclusion/conclusion}
\clearemptydoublepage
\backmatter
\input{./Annexe/annexes}
% Chapitre pour la bibliographie
% Bibliography chapter
......@@ -117,6 +113,10 @@
\printbibliography[heading=bibintoc,title={Références},notkeyword={personal,personalNonThese}]
\clearemptydoublepage
\backmatter
\input{./Annexe/annexes}
\clearemptydoublepage
% Pour avoir la quatrième de couverture sur une page paire
% To have the back cover on an even page
......
This diff is collapsed.
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment