Commit e0f63a83 authored by Antoine Caubrière's avatar Antoine Caubrière
Browse files

C2 - V2 : ask confirmation

parent e3c3c9cd
...@@ -17,27 +17,30 @@ Nous décrivons ensuite les approches neuronales récentes remplaçant les GMM, ...@@ -17,27 +17,30 @@ Nous décrivons ensuite les approches neuronales récentes remplaçant les GMM,
Comme nous avons commencé à l'évoquer dans le chapitre précédent, la parole peut être considérée comme une suite finie d'événements non aléatoires. Comme nous avons commencé à l'évoquer dans le chapitre précédent, la parole peut être considérée comme une suite finie d'événements non aléatoires.
Effectuer la reconnaissance de la parole consiste à produire une séquence de mots à partir d'observations sur un signal acoustique de parole. Effectuer la reconnaissance de la parole consiste à produire une séquence de mots à partir d'observations sur un signal acoustique de parole.
% TODO : remarques marron : bayes + P(X)
L'approche statistique est très majoritairement utilisée dans le domaine depuis des décennies [\cite{jelinek1976continuous}]. L'approche statistique est très majoritairement utilisée dans le domaine depuis des décennies [\cite{jelinek1976continuous}].
Le principe consiste à rechercher la séquence de mots $W' = w_1, w_2, ... w_n$ à partir d'observations acoustiques $X = x_1, x_2, ... x_t$ qui maximise : Le principe consiste à rechercher la séquence de mots $W' = w_1, w_2, ... w_n$ à partir d'observations acoustiques $X = x_1, x_2, ... x_t$ qui maximise :
\begin{equation} W' = \arg\max P(W|X) \end{equation} \begin{equation} W' = \arg\max P(W|X) \end{equation}
Puis, par application du théorème de Bayes, il est possible de simplifier le problème en modifiant l'équation à résoudre~[\cite{jelinek1976continuous}]. Toutefois, il est compliqué de modéliser directement cette probabilité $P(W|X)$.
Par application du théorème de Bayes cette équation peut s'écrire sous la forme :
Il s'agit ainsi de maximiser : \begin{equation} W' = \arg\max \frac{P(X|W)P(W)}{P(X)}\end{equation}
$P(X)$ est une constante indépendante de $W$.
Il est donc possible de simplifier l'équation à résoudre :
\begin{equation} W' = \arg\max P(X|W)P(W) \end{equation} \begin{equation} W' = \arg\max P(X|W)P(W) \end{equation}
L'avantage de cette deuxième équation est qu'elle rend la reconnaissance de la parole possible par l'utilisation conjointe de deux modèles statistiques. La reconnaissance de la parole peut ainsi être prise en charge par l'utilisation conjointe de deux modèles plus simples à modéliser.
Le premier est le modèle acoustique. Le premier est le modèle acoustique.
Il permet de modéliser la probabilité d'observer la séquence acoustique $X$ lorsque les mots $W$ sont prononcés : $P(X|W)$. Il permet de modéliser la probabilité d'observer la séquence acoustique $X$ lorsque les mots $W$ sont prononcés : $P(X|W)$.
Le second, le modèle de langage, modélise la probabilité d'observer le mot $W$ dans la langue reconnue : $P(W)$. Le second est le modèle de langage, qui modélise la probabilité d'observer le mot $W$ dans la langue reconnue : $P(W)$.
Ces deux modèles définissent des éléments essentiels à la mise en place d'un système de RAP. Ces deux modèles définissent des éléments essentiels à la mise en place d'un système de RAP.
Ils sont toutefois complétés par deux autres modules nécessaires que nous n'aborderons pas en détail. Ils sont toutefois complétés par plusieurs autres modules nécessaires que nous n'aborderons pas en détail.
Il s'agit tout d'abord d'un module de segmentation, dont l'objectif est de découper un signal de parole en fenêtres observables. Il s'agit tout d'abord d'un module de segmentation, dont l'objectif est de découper un signal de parole en fenêtres observables.
L'intérêt étant de sélectionner les zones comportant de la parole et d'écarter celles contenant du bruit dans un signal audio. L'intérêt étant de sélectionner les zones comportant de la parole et d'écarter celles contenant du bruit dans un signal audio.
...@@ -45,7 +48,11 @@ L'intérêt étant de sélectionner les zones comportant de la parole et d'écar ...@@ -45,7 +48,11 @@ L'intérêt étant de sélectionner les zones comportant de la parole et d'écar
Il s'agit ensuite d'un module d'extraction des paramètres acoustiques, qui est responsable de la conversion d'un signal audio de parole en vecteurs d'observations acoustiques. Il s'agit ensuite d'un module d'extraction des paramètres acoustiques, qui est responsable de la conversion d'un signal audio de parole en vecteurs d'observations acoustiques.
L'intérêt de ce module est, au sein d'un segment de parole, d'extraire les informations pertinentes de la parole. L'intérêt de ce module est, au sein d'un segment de parole, d'extraire les informations pertinentes de la parole.
La méthode d'extraction la plus fréquente consiste à calculer des coefficients cepstraux (\textit{Mel-Frequency Cepstral Coefficient, MFCC})~[\cite{davis1980comparison}]. La méthode d'extraction la plus fréquente consiste à calculer des coefficients cepstraux (\textit{Mel-Frequency Cepstral Coefficient, MFCC})~[\cite{davis1980comparison}].
% TODO : remarque marron, dictionnaire de prononciations
Il s'agit enfin d'un dictionnaire de prononciation réalisant le lien entre la représentation textuelle et la représentation acoustique des mots.
Ce dictionnaire est essentiel à l'estimation de la probabilité $P(X|W)$ et peut comporter des probabilités pour chacune des variantes de prononciations possibles d'un même mot.
% TODO : ask YE : to confirm.
Nous donnons une représentation schématique d'un système complet de reconnaissance de la parole dans la figure~\ref{fig:ASR}. Nous donnons une représentation schématique d'un système complet de reconnaissance de la parole dans la figure~\ref{fig:ASR}.
...@@ -69,8 +76,6 @@ Au sein des sous-sections suivantes, nous proposons de détailler ces technologi ...@@ -69,8 +76,6 @@ Au sein des sous-sections suivantes, nous proposons de détailler ces technologi
\subsection{Modèles de Markov cachés} \subsection{Modèles de Markov cachés}
% Ce que c'est un HMM
Un modèle de Markov caché est un modèle statistique composé d'états successifs et de transitions formant une chaîne de Markov. Un modèle de Markov caché est un modèle statistique composé d'états successifs et de transitions formant une chaîne de Markov.
Les transitions entre états sont unidirectionnelles et permettent de modéliser la probabilité de passer d'un état au suivant. Les transitions entre états sont unidirectionnelles et permettent de modéliser la probabilité de passer d'un état au suivant.
Il existe une transition bouclant sur chaque état, permettant de conserver un état d'un temps $t$ au temps $t+1$. Il existe une transition bouclant sur chaque état, permettant de conserver un état d'un temps $t$ au temps $t+1$.
...@@ -86,7 +91,7 @@ Nous fournissons l'exemple d'un modèle acoustique HMM dans la figure~\ref{fig:H ...@@ -86,7 +91,7 @@ Nous fournissons l'exemple d'un modèle acoustique HMM dans la figure~\ref{fig:H
\begin{figure}[htbp] \begin{figure}[htbp]
\begin{center} \begin{center}
\includegraphics[width=\linewidth]{Chapitre2/figures/hmm.png} \includegraphics[width=0.95\linewidth]{Chapitre2/figures/hmm.png}
\end{center} \end{center}
\caption{Représentation d'un modèle acoustique exploitant des modèles de Markov cachés pour le mot \textit{salut}~[\cite{vythelingum2019construction}].} \caption{Représentation d'un modèle acoustique exploitant des modèles de Markov cachés pour le mot \textit{salut}~[\cite{vythelingum2019construction}].}
...@@ -97,7 +102,7 @@ Entraîner un modèle acoustique de ce type correspond à maximiser les probabil ...@@ -97,7 +102,7 @@ Entraîner un modèle acoustique de ce type correspond à maximiser les probabil
Il s'agit d'estimer les probabilités de transition d'un état au suivant de manière itérative, selon l'algorithme \textit{Expectation-Maximization} (EM). Il s'agit d'estimer les probabilités de transition d'un état au suivant de manière itérative, selon l'algorithme \textit{Expectation-Maximization} (EM).
Enfin, un automate formé par concaténation d'HMM peut être parcouru selon différents chemins qui représentent un alignement possible entre le signal acoustique et une séquence de mots. Enfin, un automate formé par concaténation d'HMM peut être parcouru selon différents chemins qui représentent un alignement possible entre le signal acoustique et une séquence de mots.
Il s'agit désormais de trouver le chemin le plus probable à l'aide de l'algorithme Viterbi~[\cite{forney1973viterbi}], donnant ainsi l'alignement optimal. Il s'agit de trouver le chemin le plus probable à l'aide de l'algorithme Viterbi~[\cite{forney1973viterbi}], donnant ainsi l'alignement optimal.
C'est l'algorithme le plus couramment utilisé, bien qu'il en existe d'autres, comme la méthode itérative de Baulm-Welch~[\cite{baum1972inequality}]. C'est l'algorithme le plus couramment utilisé, bien qu'il en existe d'autres, comme la méthode itérative de Baulm-Welch~[\cite{baum1972inequality}].
Pour la tâche de reconnaissance de la parole, il est nécessaire d'estimer les probabilités d'observations acoustiques sur les états des HMM. Pour la tâche de reconnaissance de la parole, il est nécessaire d'estimer les probabilités d'observations acoustiques sur les états des HMM.
...@@ -131,7 +136,7 @@ Nous fournissons dans la figure~\ref{fig:hmm-dnn}, l'exemple d'une architecture ...@@ -131,7 +136,7 @@ Nous fournissons dans la figure~\ref{fig:hmm-dnn}, l'exemple d'une architecture
\begin{figure}[htbp] \begin{figure}[htbp]
\begin{center} \begin{center}
\includegraphics[width=0.7\linewidth]{Chapitre2/figures/hmm-dnn.png} \includegraphics[width=0.6\linewidth]{Chapitre2/figures/hmm-dnn.png}
\end{center} \end{center}
\caption{Représentation d'un système HMM-DNN pour la modélisation acoustique de la parole~[\cite{juan2015exploiting}].} \caption{Représentation d'un système HMM-DNN pour la modélisation acoustique de la parole~[\cite{juan2015exploiting}].}
...@@ -151,8 +156,8 @@ La modélisation de ces contraintes est faite selon la probabilité d'observer u ...@@ -151,8 +156,8 @@ La modélisation de ces contraintes est faite selon la probabilité d'observer u
\subsection{Modèle n-grammes} \subsection{Modèle n-grammes}
L'intérêt des modèles de ce type réside dans leurs capacités à estimer cette probabilité avec un historique de $n-1$ mots. L'intérêt des modèles de ce type réside dans leurs capacités à estimer cette probabilité avec un historique de $n-1$ mots.
Ils possèdent toutefois une limite, puisque plus la taille de l'historique pris en compte est importante, plus il est couteux de réaliser une modélisation de ce type~[\cite{chen1999empirical}]. Ils possèdent toutefois des limites, puisque plus la taille de l'historique pris en compte est importante, plus il est couteux de réaliser une modélisation de ce type~[\cite{chen1999empirical}] et plus ils font face à la problématique du manque de données.
% TODO : remarque marron Il est rare d'observer plusieurs fois de longues séquences de mots dans un ensemble de données.
Pour estimer un modèle de langage, il est nécessaire de maximiser la vraisemblance sur un ensemble de données textuelles~[\cite{dempster1977maximum}]. Pour estimer un modèle de langage, il est nécessaire de maximiser la vraisemblance sur un ensemble de données textuelles~[\cite{dempster1977maximum}].
Il s'agit de calculer la probabilité d'apparition d'un mot $i$ selon l'historique $h$ de la façon suivante : Il s'agit de calculer la probabilité d'apparition d'un mot $i$ selon l'historique $h$ de la façon suivante :
...@@ -264,9 +269,6 @@ Pendant l'exploration de l'arbre, il s'agit de classer les successeurs du noeud ...@@ -264,9 +269,6 @@ Pendant l'exploration de l'arbre, il s'agit de classer les successeurs du noeud
Cet algorithme est couramment exploité comme stratégie de recherche au sein des sorties de systèmes séquences à séquences. Cet algorithme est couramment exploité comme stratégie de recherche au sein des sorties de systèmes séquences à séquences.
L'intérêt étant de construire un arbre des possibilités à l'aide des séquences de sorties immédiates d'un système et d'un modèle de langage. L'intérêt étant de construire un arbre des possibilités à l'aide des séquences de sorties immédiates d'un système et d'un modèle de langage.
Le modèle de langage permet de définir le score des successeurs de chaque noeud. Le modèle de langage permet de définir le score des successeurs de chaque noeud.
Par la suite, il suffit de parcourir cet arbre avec une largeur de $n$ pour sélectionner la séquence maximisant le score global calculé à l'aide du modèle de langage.
%TODO : revenir sur relecture ICI
Concrètement, l'emploi de cet algorithme, couplé à un modèle de langage, permet à un système d'émettre une sortie davantage vraisemblable par rapport au langage ciblé. Concrètement, l'emploi de cet algorithme, couplé à un modèle de langage, permet à un système d'émettre une sortie davantage vraisemblable par rapport au langage ciblé.
Un exemple serait que, dans le cas d'un système de reconnaissance de la parole basé sur les caractères, cet algorithme est capable de corriger des erreurs orthographiques comme "banjour", à condition que le mot "bonjour" soit connu dans le modèle de langage utilisé. Un exemple serait que, dans le cas d'un système de reconnaissance de la parole basé sur les caractères, cet algorithme est capable de corriger des erreurs orthographiques comme "banjour", à condition que le mot "bonjour" soit connu dans le modèle de langage utilisé.
......
This diff is collapsed.
This diff is collapsed.
[0] Config.pm:302> INFO - This is Biber 2.9 [0] Config.pm:302> INFO - This is Biber 2.9
[0] Config.pm:305> INFO - Logfile is 'main.blg' [0] Config.pm:305> INFO - Logfile is 'main.blg'
[23] biber:313> INFO - === lun. nov. 16, 2020, 16:27:20 [29] biber:313> INFO - === lun. nov. 16, 2020, 19:00:07
[53] Biber.pm:371> INFO - Reading 'main.bcf' [51] Biber.pm:371> INFO - Reading 'main.bcf'
[131] Biber.pm:857> INFO - Found 187 citekeys in bib section 0 [123] Biber.pm:857> INFO - Found 187 citekeys in bib section 0
[142] Biber.pm:3981> INFO - Processing section 0 [138] Biber.pm:3981> INFO - Processing section 0
[151] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio.bib' for section 0 [151] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio.bib' for section 0
[159] bibtex.pm:1468> INFO - LaTeX decoding ... [160] bibtex.pm:1468> INFO - LaTeX decoding ...
[367] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio.bib' [358] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio.bib'
[1271] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio.bib_25350.utf8, line 386, warning: 49 characters of junk seen at toplevel [1343] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio.bib_7750.utf8, line 386, warning: 49 characters of junk seen at toplevel
[1271] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio.bib_25350.utf8, line 537, warning: 14 characters of junk seen at toplevel [1343] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio.bib_7750.utf8, line 537, warning: 14 characters of junk seen at toplevel
[1271] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio_perso.bib' for section 0 [1343] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio_perso.bib' for section 0
[1272] bibtex.pm:1468> INFO - LaTeX decoding ... [1345] bibtex.pm:1468> INFO - LaTeX decoding ...
[1298] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio_perso.bib' [1366] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio_perso.bib'
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 7, warning: undefined macro "Dec" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 7, warning: undefined macro "Dec"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 21, warning: undefined macro "Jul" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 21, warning: undefined macro "Jul"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 36, warning: undefined macro "Sep" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 36, warning: undefined macro "Sep"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 53, warning: undefined macro "Sep" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 53, warning: undefined macro "Sep"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 69, warning: undefined macro "Oct" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 69, warning: undefined macro "Oct"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 82, warning: undefined macro "Nov" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 82, warning: undefined macro "Nov"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 126, warning: undefined macro "Apr" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 126, warning: undefined macro "Apr"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 140, warning: undefined macro "May" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 140, warning: undefined macro "May"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 152, warning: undefined macro "May" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 152, warning: undefined macro "May"
[1417] Utils.pm:169> WARN - BibTeX subsystem: /tmp/nVVtn8S0CC/biblio_perso.bib_25350.utf8, line 165, warning: undefined macro "Oct" [1462] Utils.pm:169> WARN - BibTeX subsystem: /tmp/l4wlOOEkzx/biblio_perso.bib_7750.utf8, line 165, warning: undefined macro "Oct"
[1418] Utils.pm:169> WARN - I didn't find a database entry for 'fillmore1976frame' (section 0) [1463] Utils.pm:169> WARN - I didn't find a database entry for 'fillmore1976frame' (section 0)
[1418] Utils.pm:169> WARN - I didn't find a database entry for 'xie2015graph' (section 0) [1463] Utils.pm:169> WARN - I didn't find a database entry for 'xie2015graph' (section 0)
[1804] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'variable = shifted' with 'variable = non-ignorable' [1830] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'variable = shifted' with 'variable = non-ignorable'
[1805] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'normalization = NFD' with 'normalization = prenormalized' [1830] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'normalization = NFD' with 'normalization = prenormalized'
[1805] Biber.pm:3809> INFO - Sorting list 'apa/global//global/global' of type 'entry' with template 'apa' and locale 'fr-FR' [1830] Biber.pm:3809> INFO - Sorting list 'apa/global//global/global' of type 'entry' with template 'apa' and locale 'fr-FR'
[1805] Biber.pm:3815> INFO - No sort tailoring available for locale 'fr-FR' [1830] Biber.pm:3815> INFO - No sort tailoring available for locale 'fr-FR'
[1970] bbl.pm:617> INFO - Writing 'main.bbl' with encoding 'UTF-8' [1997] bbl.pm:617> INFO - Writing 'main.bbl' with encoding 'UTF-8'
[2135] bbl.pm:720> INFO - Output to main.bbl [2169] bbl.pm:720> INFO - Output to main.bbl
[2135] Biber.pm:110> INFO - WARNINGS: 14 [2169] Biber.pm:110> INFO - WARNINGS: 14
This is pdfTeX, Version 3.14159265-2.6-1.40.18 (TeX Live 2017/Debian) (preloaded format=pdflatex 2018.12.4) 16 NOV 2020 16:27 This is pdfTeX, Version 3.14159265-2.6-1.40.18 (TeX Live 2017/Debian) (preloaded format=pdflatex 2018.12.4) 16 NOV 2020 19:00
entering extended mode entering extended mode
restricted \write18 enabled. restricted \write18 enabled.
%&-line parsing enabled. %&-line parsing enabled.
...@@ -3022,46 +3022,42 @@ Chapitre 2. ...@@ -3022,46 +3022,42 @@ Chapitre 2.
<Chapitre2/figures/asr.png, id=1510, 1574.88374pt x 634.37pt> <Chapitre2/figures/asr.png, id=1510, 1574.88374pt x 634.37pt>
File: Chapitre2/figures/asr.png Graphic file (type png) File: Chapitre2/figures/asr.png Graphic file (type png)
<use Chapitre2/figures/asr.png> <use Chapitre2/figures/asr.png>
Package pdftex.def Info: Chapitre2/figures/asr.png used on input line 54. Package pdftex.def Info: Chapitre2/figures/asr.png used on input line 61.
(pdftex.def) Requested size: 455.24411pt x 183.37212pt. (pdftex.def) Requested size: 455.24411pt x 183.37212pt.
Underfull \vbox (badness 3930) has occurred while \output is active []
[51 <./Chapitre2/figures/asr.png>] [51 <./Chapitre2/figures/asr.png>]
<Chapitre2/figures/hmm.png, id=1522, 1179.40625pt x 284.06125pt> <Chapitre2/figures/hmm.png, id=1521, 1179.40625pt x 284.06125pt>
File: Chapitre2/figures/hmm.png Graphic file (type png) File: Chapitre2/figures/hmm.png Graphic file (type png)
<use Chapitre2/figures/hmm.png> <use Chapitre2/figures/hmm.png>
Package pdftex.def Info: Chapitre2/figures/hmm.png used on input line 89. Package pdftex.def Info: Chapitre2/figures/hmm.png used on input line 94.
(pdftex.def) Requested size: 455.24411pt x 109.64781pt. (pdftex.def) Requested size: 432.48051pt x 104.16476pt.
[52 <./Chapitre2/figures/hmm.png>] [52 <./Chapitre2/figures/hmm.png>] [53]
<Chapitre2/figures/hmm-dnn.png, id=1539, 1209.51875pt x 1132.23pt> <Chapitre2/figures/hmm-dnn.png, id=1549, 1209.51875pt x 1132.23pt>
File: Chapitre2/figures/hmm-dnn.png Graphic file (type png) File: Chapitre2/figures/hmm-dnn.png Graphic file (type png)
<use Chapitre2/figures/hmm-dnn.png> <use Chapitre2/figures/hmm-dnn.png>
Package pdftex.def Info: Chapitre2/figures/hmm-dnn.png used on input line 134. Package pdftex.def Info: Chapitre2/figures/hmm-dnn.png used on input line 139.
(pdftex.def) Requested size: 318.66948pt x 298.2946pt. (pdftex.def) Requested size: 273.14923pt x 255.69096pt.
[53] [54 <./Chapitre2/figures/hmm-dnn.png>]
Underfull \vbox (badness 1072) has occurred while \output is active []
[55] Underfull \vbox (badness 5667) has occurred while \output is active []
Overfull \hbox (5.31262pt too wide) in paragraph at lines 182--184
[54 <./Chapitre2/figures/hmm-dnn.png>]
Overfull \hbox (5.31262pt too wide) in paragraph at lines 187--189
\T1/jkp/m/n/10.95 per-cep-tron mul-ti-couches (\T1/jkp/m/it/10.95 Mul-ti-Layer \T1/jkp/m/n/10.95 per-cep-tron mul-ti-couches (\T1/jkp/m/it/10.95 Mul-ti-Layer
Per-cep-tron, MLP\T1/jkp/m/n/10.95 ) [[][]\T1/jkp/m/sc/10.95 Ben-gio\T1/jkp/m/n Per-cep-tron, MLP\T1/jkp/m/n/10.95 ) [[][]\T1/jkp/m/sc/10.95 Ben-gio\T1/jkp/m/n
/10.95 , \T1/jkp/m/sc/10.95 Du-charme \T1/jkp/m/n/10.95 et al. [][]2003[][] ; [ /10.95 , \T1/jkp/m/sc/10.95 Du-charme \T1/jkp/m/n/10.95 et al. [][]2003[][] ; [
][]\T1/jkp/m/sc/10.95 Schwenk ][]\T1/jkp/m/sc/10.95 Schwenk
[] []
[56] [57] [55] [56]
<Chapitre2/figures/CTC.png, id=1624, 457.71pt x 466.74374pt> <Chapitre2/figures/CTC.png, id=1617, 457.71pt x 466.74374pt>
File: Chapitre2/figures/CTC.png Graphic file (type png) File: Chapitre2/figures/CTC.png Graphic file (type png)
<use Chapitre2/figures/CTC.png> <use Chapitre2/figures/CTC.png>
Package pdftex.def Info: Chapitre2/figures/CTC.png used on input line 249. Package pdftex.def Info: Chapitre2/figures/CTC.png used on input line 254.
(pdftex.def) Requested size: 250.38564pt x 255.32819pt. (pdftex.def) Requested size: 250.38564pt x 255.32819pt.
[58 <./Chapitre2/figures/CTC.png>] [57]
Underfull \vbox (badness 5161) has occurred while \output is active [] Underfull \vbox (badness 10000) has occurred while \output is active []
[59] [58 <./Chapitre2/figures/CTC.png>] [59] [60]) [61] [62
[60]) [61] [62
] (./Chapitre3/chapitre3.tex ] (./Chapitre3/chapitre3.tex
Chapitre 3. Chapitre 3.
...@@ -4134,9 +4130,9 @@ Package atveryend Info: Empty hook `AtVeryVeryEnd' on input line 125. ...@@ -4134,9 +4130,9 @@ Package atveryend Info: Empty hook `AtVeryVeryEnd' on input line 125.
) )
Here is how much of TeX's memory you used: Here is how much of TeX's memory you used:
33078 strings out of 494317 33078 strings out of 494317
598236 string characters out of 6163362 598238 string characters out of 6163362
1178725 words of memory out of 5000000 1178621 words of memory out of 5000000
34740 multiletter control sequences out of 15000+600000 34739 multiletter control sequences out of 15000+600000
208498 words of font info for 148 fonts, out of 8000000 for 9000 208498 words of font info for 148 fonts, out of 8000000 for 9000
350 hyphenation exceptions out of 8191 350 hyphenation exceptions out of 8191
62i,13n,56p,1415b,3873s stack positions out of 5000i,500n,10000p,200000b,80000s 62i,13n,56p,1415b,3873s stack positions out of 5000i,500n,10000p,200000b,80000s
...@@ -4157,10 +4153,10 @@ e1/public/kpfonts/jkpmsce.pfb></usr/share/texlive/texmf-dist/fonts/type1/public ...@@ -4157,10 +4153,10 @@ e1/public/kpfonts/jkpmsce.pfb></usr/share/texlive/texmf-dist/fonts/type1/public
psyc.pfb></usr/share/texlive/texmf-dist/fonts/type1/urw/helvetic/uhvb8a.pfb></u psyc.pfb></usr/share/texlive/texmf-dist/fonts/type1/urw/helvetic/uhvb8a.pfb></u
sr/share/texlive/texmf-dist/fonts/type1/urw/helvetic/uhvr8a.pfb></usr/share/tex sr/share/texlive/texmf-dist/fonts/type1/urw/helvetic/uhvr8a.pfb></usr/share/tex
live/texmf-dist/fonts/type1/urw/helvetic/uhvro8a.pfb> live/texmf-dist/fonts/type1/urw/helvetic/uhvro8a.pfb>
Output written on main.pdf (196 pages, 4733737 bytes). Output written on main.pdf (196 pages, 4734054 bytes).
PDF statistics: PDF statistics:
3619 PDF objects out of 4296 (max. 8388607) 3619 PDF objects out of 4296 (max. 8388607)
3077 compressed objects within 31 object streams 3077 compressed objects within 31 object streams
718 named destinations out of 1000 (max. 500000) 719 named destinations out of 1000 (max. 500000)
1322 words of extra memory for PDF output out of 10000 (max. 10000000) 1322 words of extra memory for PDF output out of 10000 (max. 10000000)
...@@ -3,14 +3,14 @@ ...@@ -3,14 +3,14 @@
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.2.1}Mod\IeC {\`e}les de Markov cach\IeC {\'e}s}{\reset@font\mtcSSfont 52}{subsection.2.2.1}} {\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.2.1}Mod\IeC {\`e}les de Markov cach\IeC {\'e}s}{\reset@font\mtcSSfont 52}{subsection.2.2.1}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.2.2}Mod\IeC {\`e}les \IeC {\`a} m\IeC {\'e}lange de gaussiennes}{\reset@font\mtcSSfont 53}{subsection.2.2.2}} {\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.2.2}Mod\IeC {\`e}les \IeC {\`a} m\IeC {\'e}lange de gaussiennes}{\reset@font\mtcSSfont 53}{subsection.2.2.2}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.2.3}Mod\IeC {\`e}les neuronaux profonds}{\reset@font\mtcSSfont 53}{subsection.2.2.3}} {\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.2.3}Mod\IeC {\`e}les neuronaux profonds}{\reset@font\mtcSSfont 53}{subsection.2.2.3}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.3}Mod\IeC {\'e}lisation du langage}{\reset@font\mtcSfont 55}{section.2.3}} {\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.3}Mod\IeC {\'e}lisation du langage}{\reset@font\mtcSfont 54}{section.2.3}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.3.1}Mod\IeC {\`e}le n-grammes}{\reset@font\mtcSSfont 55}{subsection.2.3.1}} {\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.3.1}Mod\IeC {\`e}le n-grammes}{\reset@font\mtcSSfont 55}{subsection.2.3.1}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.3.2}Mod\IeC {\`e}les neuronaux}{\reset@font\mtcSSfont 56}{subsection.2.3.2}} {\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.3.2}Mod\IeC {\`e}les neuronaux}{\reset@font\mtcSSfont 55}{subsection.2.3.2}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.4}Approches neuronales de bout en bout}{\reset@font\mtcSfont 56}{section.2.4}} {\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.4}Approches neuronales de bout en bout}{\reset@font\mtcSfont 56}{section.2.4}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.4.1}Classification Temporelle Connectionniste}{\reset@font\mtcSSfont 57}{subsection.2.4.1}} {\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.4.1}Classification Temporelle Connectionniste}{\reset@font\mtcSSfont 57}{subsection.2.4.1}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.4.2}Algorithme de Beam Search}{\reset@font\mtcSSfont 58}{subsection.2.4.2}} {\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.4.2}Algorithme de Beam Search}{\reset@font\mtcSSfont 58}{subsection.2.4.2}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.4.3}Architecture encodeur-d\IeC {\'e}codeur avec attention}{\reset@font\mtcSSfont 59}{subsection.2.4.3}} {\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {2.4.3}Architecture encodeur-d\IeC {\'e}codeur avec attention}{\reset@font\mtcSSfont 59}{subsection.2.4.3}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Transformers}{\reset@font\mtcSSSfont 60}{section*.21}} {\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Transformers}{\reset@font\mtcSSSfont 59}{section*.21}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.5}\IeC {\'E}valuation de la reconnaissance de la parole}{\reset@font\mtcSfont 60}{section.2.5}} {\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.5}\IeC {\'E}valuation de la reconnaissance de la parole}{\reset@font\mtcSfont 60}{section.2.5}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.6}Choix technologiques pour cette th\IeC {\`e}se}{\reset@font\mtcSfont 61}{section.2.6}} {\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.6}Choix technologiques pour cette th\IeC {\`e}se}{\reset@font\mtcSfont 60}{section.2.6}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.7}Conclusion}{\reset@font\mtcSfont 61}{section.2.7}} {\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {2.7}Conclusion}{\reset@font\mtcSfont 61}{section.2.7}}
No preview for this file type
...@@ -85,11 +85,11 @@ ...@@ -85,11 +85,11 @@
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {2.2.3}Mod\IeC {\`e}les neuronaux profonds}{53}{subsection.2.2.3} \contentsline {subsection}{\numberline {2.2.3}Mod\IeC {\`e}les neuronaux profonds}{53}{subsection.2.2.3}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {2.3}Mod\IeC {\'e}lisation du langage}{55}{section.2.3} \contentsline {section}{\numberline {2.3}Mod\IeC {\'e}lisation du langage}{54}{section.2.3}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {2.3.1}Mod\IeC {\`e}le n-grammes}{55}{subsection.2.3.1} \contentsline {subsection}{\numberline {2.3.1}Mod\IeC {\`e}le n-grammes}{55}{subsection.2.3.1}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {2.3.2}Mod\IeC {\`e}les neuronaux}{56}{subsection.2.3.2} \contentsline {subsection}{\numberline {2.3.2}Mod\IeC {\`e}les neuronaux}{55}{subsection.2.3.2}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {2.4}Approches neuronales de bout en bout}{56}{section.2.4} \contentsline {section}{\numberline {2.4}Approches neuronales de bout en bout}{56}{section.2.4}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
...@@ -99,11 +99,11 @@ ...@@ -99,11 +99,11 @@
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {2.4.3}Architecture encodeur-d\IeC {\'e}codeur avec attention}{59}{subsection.2.4.3} \contentsline {subsection}{\numberline {2.4.3}Architecture encodeur-d\IeC {\'e}codeur avec attention}{59}{subsection.2.4.3}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Transformers}{60}{section*.21} \contentsline {subsubsection}{Transformers}{59}{section*.21}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {2.5}\IeC {\'E}valuation de la reconnaissance de la parole}{60}{section.2.5} \contentsline {section}{\numberline {2.5}\IeC {\'E}valuation de la reconnaissance de la parole}{60}{section.2.5}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {2.6}Choix technologiques pour cette th\IeC {\`e}se}{61}{section.2.6} \contentsline {section}{\numberline {2.6}Choix technologiques pour cette th\IeC {\`e}se}{60}{section.2.6}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {2.7}Conclusion}{61}{section.2.7} \contentsline {section}{\numberline {2.7}Conclusion}{61}{section.2.7}
\defcounter {refsection}{0}\relax \defcounter {refsection}{0}\relax
......
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment