Commit f486180e authored by Antoine Caubrière's avatar Antoine Caubrière
Browse files

C7 - relecture / reformulation + déplacement en annexes

parent 5f9cfaa3
\chapter*{Annexes}
\addcontentsline{toc}{chapter}{Annexes}
\chaptermark{Annexes}
\section*{Coût environnemental de la thèse}
Nous proposons ici d'effectuer un aparté pour rendre compte du coût environnemental des travaux menés dans le cadre de cette thèse.
Cette section est motivée par le coût énergétique grandissant des approches d'apprentissages profonds.
Ce domaine progresse rapidement avec des méthodes se perfectionnant, mais qui nécessite un temps de calcul de plus en plus important.
Certaines études s'intéressent au coût énergétique de l'apprentissage profond, notamment dans le cadre du traitement de la langue naturel~[\cite{strubell2019energy}].
Ces études signalent l'importance de l'indication du coût énergétique afin de s'orienter à terme vers des algorithmes et du matériel de calcul plus efficaces.
Dans cette thèse, nous avons exposé nos travaux du point de vue des performances obtenues.
Nous proposons au travers de cette section, une estimation factuelle du coût énergétique de l'ensemble des travaux permettant la réalisation de cette thèse.
L'estimation que nous proposons ne peut être très précise en raison des variabilités matérielles lors de nos expérimentations. De plus nous n'avons pas consigné l'intégralité de nos expérimentations, notamment lorsqu'il s'agissait de développement.
Ainsi, cette estimation se veut plutôt indicative d'un ordre de grandeur.
Dans le but de réaliser notre estimation, nous considérons que nous réalisons l'ensemble de nos expérimentations sur un gpu de type Nvidia Tesla K40, ayant une consommation électrique de 235 watts.
Nous effectuons une estimation du temps de calcul nécessaire à un GPU de ce type pour réaliser l'apprentissage de l'ensemble des modèles exploités.
Nous regroupons, dans la table~\ref{res:estimation-elec}, l'estimation du temps de calcul total des expérimentations que nous avons présentés dans cette thèse par chapitre de contributions.
\begin{table}[!htbp]
\centering
\begin{tabular}{|l|c|c|}
\hline
\textbf{Chapitre} & \textbf{Temps de calcul GPU} & \textbf{kWh consommés} \\
\hline
\hline
Chapitre 5. & 139 jours & ~784 kWh \\
\hline
Chapitre 6. & 170 jours & ~959 kWh \\
\hline
Chapitre 7. & 4 jours & ~23 kWh \\
\hline
\hline
\textbf{Total} & \textbf{313} jours & \textbf{1 766} kWh\\
\hline
\end{tabular}
\caption{Estimation du temps de calcul et de la consommation énergétique associée pour la reproduction des résultats présentés dans cette thèse.}
\label{res:estimation-elec}
\end{table}
Dans cette table, nous avons fourni qu'une estimation du temps de calcul correspondant aux expérimentations présentées dans les chapitres de contributions de ce manuscrit.
Il ne peut s'agir que d'une estimation basse, puisque nous avons nécessairement effectué davantage d'expérimentations que celles présentées.
En effet, nous avons réalisé plusieurs séries d'expérimentations n'ayant pas montré de résultats concluants.
De plus, un nombre non négligeable d'expériences ont été nécessaires à des fins de développement.
Il est ainsi raisonnable de penser qu'avec la prise en compte de l'intégralité des expérimentations menées dans le cadre de cette thèse, nous pouvons à minima doubler l'estimation du coût en temps de calcul et énergétique de ces travaux.
Pour rendre compte de la consommation énergétique, il est à noté qu'avec $1 kWh$ il est possible d'alimenter un chauffage électrique pendant 1 heure l'hiver, mais également de parcourir 2 km dans une voiture électrique smart.
Pour davantage de correspondance, nous invitons le lecteur à consulter le site internet d
'\href{https://www.edf.fr/groupe-edf/espaces-dedies/l-energie-de-a-a-z/tout-sur-l-energie/le-developpement-durable/que-peut-on-faire-avec-1-kwh}{\textit{EDF}}.
%https://www.edf.fr/groupe-edf/espaces-dedies/l-energie-de-a-a-z/tout-sur-l-energie/le-developpement-durable/que-peut-on-faire-avec-1-kwh
%xp entités nommées :
%système E2E / E2E* = 2 semaine d'apprentissages
%Système E2E+ / E2E+* = 2 semaine.
%RAP ASR = 3 semaine
%NeuroNLP2 = 2 jours
%pour E2E :
%RAP repris + REN_struct = 1,5 semaines
%RAP repris + REN_type = 1,5 semaines + REN_struct = 1,5 semaines
%RAP_repris + REN+_struct = 2,5 semaine
%RAP_repris + REN+_type = 2,5 semaines + REN+_struct = 2,5 semaine
%****************************
%XP concepts sémantiques
%RAP = 3 semaines + entraînement du CRF sur CPU
%M = 2 jours
%RAP repris + M = 2 jours
%RAP repris + PM+M = 3 jours + M = 2 jours
%M* = 2 jours
%RAP repris + M* = 2 jours
%RAP repris + PM+M = 3 jours + M* = 2 jours
%RAP repris + PM*+M* = 3 jours + M* = 2 jours
%RAP repris + REN = 2,5 semaines + M = 2 jours
%RAP repris + REN repris + pm+M = 3 jours + M = 2 jours
%RAP repris + REN repris + pm+M repris + M* = 2 jours
%RAP repris + REN repris + pm*+M* = 3 jours + M* = 2 jours
%82 + 17 + 10 + 3 + 2 + 17 + 10 + 3 + 2 + 2 + 5 +2 + 5 + 5 + 5
% xp d'optim :
%RAP_6 = 2,5 semaines + REN_6 = 1,5 semaine + PM+M_6 = 3 jours + M_6 = 2 jours
%RAP_7 = 2,5 semaines + REN_7 = 1,5 semaine + PM+M_7 = 3 jours + M_7 = 2 jours
%RAP_5 repris + REN_5 repris + PM+M_5 repris + M_6 = 2 jours
%RAP_5 repris + REN_5 repris + PM+M_6 = 3 jours + M_6 = 2 jours
%RAP_6 repris + REN_6 repris + PM+M_6 repris + M_7 = 2 jours
%RAP_6 repris + REN_6 repris + PM+M_7 = 3 jours + M_7 = 2 jours
%RAP_6 repris + REN_6 repris + PM*+M*_7 = 3 jours + M*_7 = 2 jours
%RAP_7 repris + REN_7 repris + PM*+M*_8 = 3 jours + M*_8 = 2 jours
......@@ -257,6 +257,7 @@ Nous donnons dans la figure~\ref{fig:CTC} une représentation\footnote{Cette rep
\end{figure}
\subsection{Algorithme de Beam Search}
\label{sec:algo-beam}
L'algorithme de \textit{Beam Search}, ou algorithme de recherche en faisceau, vise à explorer un arbre de possibilités en n'explorant qu'un nombre limité ($n$) de fils à chaque noeud du graphe.
Ce nombre $n$ est aussi appelé largeur du faisceau.
......
\part{Contributions}
% TODO : ajouter dans ce chapitre le positionnement.
% TODO : ajouter dans ce chapitre le positionnement : on fait suite aux travaux d'edwin sans
\chapter{Reconnaissance d'entités nommées}
\minitoc
......@@ -654,8 +654,8 @@ Nous le mettons en \oe{}uvre dans la même configuration que dans la sous-sectio
Nous utilisons comme système de RAP, le système DeepSpeech 2 obtenu lors de la première étape de l'apprentissage par transfert évoqué précédemment.
Comme la qualité des transcriptions automatique a une incidence au sein d'une chaîne de composants, nous souhaitons la maximiser.
% TODO : expliquer par ici le greedy decoding + ajouter voir section XX de l'état de l'art pour beam seach decoding
Le système DeepSpeech 2 peut effectuer la transcription de l'audio de manière totalement neuronale (\textit{greedy decoding}), mais il peut également tirer bénéfice d'un modèle de langage (\textit{Beam Search decoding}).
Le système DeepSpeech 2 peut effectuer la transcription de l'audio de manière totalement neuronale (\textit{greedy decoding}), c'est-à-dire en utilisant un algorithme glouton qui selectionne la sortie la plus probable à chaque temps $t$ pour construire la séquence de sortie.
Il peut également tirer bénéfice d'un modèle de langage (\textit{Beam Search decoding}, voir section~\ref{sec:algo-beam}).
Son utilisation implique l'amélioration de la qualité des transcriptions automatiques, puisque les sorties initiales seront modifiées pour être en cohérence avec le modèle de langage.
DeepSpeech 2 effectue une prédiction caractère par caractère.
Ainsi, le modèle de langage est en mesure de corriger des émissions de mots inconnus ou mal orthographiés.
......@@ -686,7 +686,7 @@ Nous donnons dans la table~\ref{res:CC_ren_simple}, les résultats de la chaîne
"\textit{$RAP \rightarrow REN$+*}" & type et valeur & 0,49 & 0,41 & 0,47 \\
\hline
\end{tabular}
\caption{Résultats exprimés en Précision, Rappel et F-mesure pour la REN simplifiée avec une chaîne de composants composée de DeepSpeech 2 (DS2) et NeuroNLP2. Les résultats encadrés par " sont reportés du tableau~\ref{res:E2E_augm}.}
\caption{Résultats exprimés en Précision, Rappel et F-mesure pour la REN simplifiée avec une chaîne de composants composée de DeepSpeech 2 (DS2) et NeuroNLP2. Les résultats encadrés par " sont reportés de la table~\ref{res:E2E_augm}.}
\label{res:CC_ren_simple}
\end{table}
......@@ -836,7 +836,7 @@ Nous proposons de bénéficier également des modèles de langages déjà appris
\end{table}
Par comparaison des résultats du tableau~\ref{res:E2E-struct-augm} et du tableau~\ref{res:E2E-struct-beam}, nous pouvons observer l'apport positif systématique de l'augmentation automatique de l'annotation sémantique que nous proposons.
Par comparaison des résultats de la table~\ref{res:E2E-struct-augm} et de la table~\ref{res:E2E-struct-beam}, nous pouvons observer l'apport positif systématique de l'augmentation automatique de l'annotation sémantique que nous proposons.
Ces résultats montrent aussi que nous conservons l'intérêt de l'apprentissage par transferts successifs en séparant l'apprentissage de la typologie des entités nommées et l'apprentissage de leurs décompositions.
Les modèles de langues 3-grammes et 4-grammes maintiennent également leur apport pour les performances finales du système de bout en bout.
......
......@@ -583,7 +583,6 @@ Comme nous l'avons vu plus haut, les temps de calcul pour ce type de tâche et d
Afin de tester notre hypothèse de spécialisation de la dernière couche cachée, nous avons réalisé plusieurs expériences dans lesquelles une couche est ajoutée au moment d'un transfert.
Nous fournissons dans la table~\ref{res:prof_mix}, les résultats de plusieurs configurations d'entraînement modifiant la profondeur durant l'apprentissage.
\begin{table}[htbp]
\centering
\begin{tabular}{|l|c|c|c|c|}
......
This diff is collapsed.
\chapter{Conclusion et perspectives}
Au sein de ce dernier chapitre, nous concluons sur les travaux réalisés dans le cadre de cette thèse.
Nous proposons quelques perspectives pouvant orienter de futurs travaux.
Enfin, nous terminons par un aparté à propos du coût environnemental de nos travaux.
Nous proposons ensuite quelques perspectives pouvant orienter de futurs travaux.
\section{Conclusion}
......@@ -195,128 +194,3 @@ Au sein de cette phrase, nous pouvons ainsi remplir les champs avec des valeurs
Ces dictionnaires peuvent être issus d'une analyse sur l'ensemble manuellement annoté ou même bénéficier d'un enrichissement expert extérieur.
Enfin, comme nous exploitons une modalité parole en entrée de nos systèmes, nous pouvons compléter une augmentation automatique de ce type par la synthèse des phrases générées.
\section{Coût environnemental de la thèse}
Dans cette dernière section, nous proposons d'effectuer un aparté pour rendre compte du coût environnemental des travaux menés dans le cadre de cette thèse.
Cette section est motivée par le coût énergétique grandissant des approches d'apprentissages profonds.
Ce domaine progresse rapidement avec des méthodes se perfectionnant, mais qui nécessite un temps de calcul de plus en plus important.
Certaines études s'intéressent au coût énergétique de l'apprentissage profond, notamment dans le cadre du traitement de la langue naturel~[\cite{strubell2019energy}].
Ces études signalent l'importance de l'indication du coût énergétique afin de s'orienter à terme vers des algorithmes et du matériel de calcul plus efficaces.
Nous avons jusque là exposé nos travaux du point de vue des performances obtenues.
Nous proposons au travers de cette section, une estimation factuelle du coût énergétique de l'ensemble des travaux permettant la réalisation de cette thèse.
L'estimation que nous proposons ne peut être très précise en raison des variabilités matérielles lors de nos expérimentations. De plus nous n'avons pas consigné l'intégralité de nos expérimentations, notamment lorsqu'il s'agissait de développement.
Ainsi, cette estimation se veut plutôt indicative d'un ordre de grandeur.
Dans le but de réaliser notre estimation, nous considérons que nous réalisons l'ensemble de nos expérimentations sur un gpu de type Nvidia Tesla K40, ayant une consommation électrique de 235 watts.
Nous effectuons une estimation du temps de calcul nécessaire à un GPU de ce type pour réaliser l'apprentissage de l'ensemble des modèles exploités.
Nous regroupons, dans la table~\ref{res:estimation-elec}, l'estimation du temps de calcul total des expérimentations que nous avons présentés dans cette thèse par chapitre de contributions.
\begin{table}[!htbp]
\centering
\begin{tabular}{|l|c|c|}
\hline
\textbf{Chapitre} & \textbf{Temps de calcul GPU} & \textbf{Watts consommés} \\
\hline
\hline
Chapitre 5. & 139 jours & ~784 kW \\
\hline
Chapitre 6. & 170 jours & ~959 kW \\
\hline
Chapitre 7. & 4 jours & ~23 kW \\
\hline
\hline
\textbf{Total} & \textbf{313} jours & \textbf{1 766} kW\\
\hline
\end{tabular}
\caption{Estimation du temps de calcul et de la consommation énergétique associée pour la reproduction des résultats présentés dans cette thèse.}
\label{res:estimation-elec}
\end{table}
Dans cette table, nous avons fourni qu'une estimation du temps de calcul correspondant aux expérimentations présentées dans les chapitres de contributions de ce manuscrit.
Il ne peut s'agir que d'une estimation basse, puisque nous avons nécessairement effectué davantage d'expérimentations que celles présentées.
En effet, nous avons réalisé plusieurs séries d'expérimentations n'ayant pas montré de résultats concluants.
De plus, un nombre non négligeable d'expériences ont été nécessaires à des fins de développement.
Il est ainsi raisonnable de penser qu'avec la prise en compte de l'intégralité des expérimentations menées dans le cadre de cette thèse, nous pouvons à minima doubler cette estimation du coût en temps de calcul et énergétique de ces travaux.
% TODO : on a pris conscience qu'on consomme
% TODO : basculer en annexe la partie énergie
%https://www.edf.fr/groupe-edf/espaces-dedies/l-energie-de-a-a-z/tout-sur-l-energie/le-developpement-durable/que-peut-on-faire-avec-1-kwh
%xp entités nommées :
%système E2E / E2E* = 2 semaine d'apprentissages
%Système E2E+ / E2E+* = 2 semaine.
%RAP ASR = 3 semaine
%NeuroNLP2 = 2 jours
%pour E2E :
%RAP repris + REN_struct = 1,5 semaines
%RAP repris + REN_type = 1,5 semaines + REN_struct = 1,5 semaines
%RAP_repris + REN+_struct = 2,5 semaine
%RAP_repris + REN+_type = 2,5 semaines + REN+_struct = 2,5 semaine
%****************************
%XP concepts sémantiques
%RAP = 3 semaines + entraînement du CRF sur CPU
%M = 2 jours
%RAP repris + M = 2 jours
%RAP repris + PM+M = 3 jours + M = 2 jours
%M* = 2 jours
%RAP repris + M* = 2 jours
%RAP repris + PM+M = 3 jours + M* = 2 jours
%RAP repris + PM*+M* = 3 jours + M* = 2 jours
%RAP repris + REN = 2,5 semaines + M = 2 jours
%RAP repris + REN repris + pm+M = 3 jours + M = 2 jours
%RAP repris + REN repris + pm+M repris + M* = 2 jours
%RAP repris + REN repris + pm*+M* = 3 jours + M* = 2 jours
%82 + 17 + 10 + 3 + 2 + 17 + 10 + 3 + 2 + 2 + 5 +2 + 5 + 5 + 5
% xp d'optim :
%RAP_6 = 2,5 semaines + REN_6 = 1,5 semaine + PM+M_6 = 3 jours + M_6 = 2 jours
%RAP_7 = 2,5 semaines + REN_7 = 1,5 semaine + PM+M_7 = 3 jours + M_7 = 2 jours
%RAP_5 repris + REN_5 repris + PM+M_5 repris + M_6 = 2 jours
%RAP_5 repris + REN_5 repris + PM+M_6 = 3 jours + M_6 = 2 jours
%RAP_6 repris + REN_6 repris + PM+M_6 repris + M_7 = 2 jours
%RAP_6 repris + REN_6 repris + PM+M_7 = 3 jours + M_7 = 2 jours
%RAP_6 repris + REN_6 repris + PM*+M*_7 = 3 jours + M*_7 = 2 jours
%RAP_7 repris + REN_7 repris + PM*+M*_8 = 3 jours + M*_8 = 2 jours
This diff is collapsed.
[0] Config.pm:302> INFO - This is Biber 2.9
[0] Config.pm:305> INFO - Logfile is 'main.blg'
[34] biber:313> INFO - === sam. oct. 24, 2020, 18:45:33
[59] Biber.pm:371> INFO - Reading 'main.bcf'
[143] Biber.pm:857> INFO - Found 185 citekeys in bib section 0
[157] Biber.pm:3981> INFO - Processing section 0
[171] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio.bib' for section 0
[183] bibtex.pm:1468> INFO - LaTeX decoding ...
[372] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio.bib'
[1270] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio.bib_25732.utf8, line 377, warning: 49 characters of junk seen at toplevel
[1270] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio.bib_25732.utf8, line 528, warning: 14 characters of junk seen at toplevel
[1271] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio_perso.bib' for section 0
[1272] bibtex.pm:1468> INFO - LaTeX decoding ...
[1308] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio_perso.bib'
[1405] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 7, warning: undefined macro "Dec"
[1405] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 21, warning: undefined macro "Jul"
[1405] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 36, warning: undefined macro "Sep"
[1405] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 53, warning: undefined macro "Sep"
[1405] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 69, warning: undefined macro "Oct"
[1405] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 82, warning: undefined macro "Nov"
[1406] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 126, warning: undefined macro "Apr"
[1406] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 140, warning: undefined macro "May"
[1406] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 152, warning: undefined macro "May"
[1406] Utils.pm:169> WARN - BibTeX subsystem: /tmp/xTQynn78Bj/biblio_perso.bib_25732.utf8, line 165, warning: undefined macro "Oct"
[1406] Utils.pm:169> WARN - I didn't find a database entry for 'fillmore1976frame' (section 0)
[1406] Utils.pm:169> WARN - I didn't find a database entry for 'xie2015graph' (section 0)
[1776] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'variable = shifted' with 'variable = non-ignorable'
[1776] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'normalization = NFD' with 'normalization = prenormalized'
[1777] Biber.pm:3809> INFO - Sorting list 'apa/global//global/global' of type 'entry' with template 'apa' and locale 'fr-FR'
[1777] Biber.pm:3815> INFO - No sort tailoring available for locale 'fr-FR'
[1938] bbl.pm:617> INFO - Writing 'main.bbl' with encoding 'UTF-8'
[2124] bbl.pm:720> INFO - Output to main.bbl
[2124] Biber.pm:110> INFO - WARNINGS: 14
[21] biber:313> INFO - === lun. oct. 26, 2020, 16:54:54
[48] Biber.pm:371> INFO - Reading 'main.bcf'
[134] Biber.pm:857> INFO - Found 185 citekeys in bib section 0
[149] Biber.pm:3981> INFO - Processing section 0
[178] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio.bib' for section 0
[185] bibtex.pm:1468> INFO - LaTeX decoding ...
[442] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio.bib'
[1834] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio.bib_17890.utf8, line 377, warning: 49 characters of junk seen at toplevel
[1835] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio.bib_17890.utf8, line 528, warning: 14 characters of junk seen at toplevel
[1835] Biber.pm:4154> INFO - Looking for bibtex format file './biblio/biblio_perso.bib' for section 0
[1837] bibtex.pm:1468> INFO - LaTeX decoding ...
[1871] bibtex.pm:1294> INFO - Found BibTeX data source './biblio/biblio_perso.bib'
[2049] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 7, warning: undefined macro "Dec"
[2049] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 21, warning: undefined macro "Jul"
[2049] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 36, warning: undefined macro "Sep"
[2049] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 53, warning: undefined macro "Sep"
[2049] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 69, warning: undefined macro "Oct"
[2050] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 82, warning: undefined macro "Nov"
[2050] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 126, warning: undefined macro "Apr"
[2050] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 140, warning: undefined macro "May"
[2050] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 152, warning: undefined macro "May"
[2050] Utils.pm:169> WARN - BibTeX subsystem: /tmp/P77YYyT6XN/biblio_perso.bib_17890.utf8, line 165, warning: undefined macro "Oct"
[2050] Utils.pm:169> WARN - I didn't find a database entry for 'fillmore1976frame' (section 0)
[2050] Utils.pm:169> WARN - I didn't find a database entry for 'xie2015graph' (section 0)
[2599] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'normalization = NFD' with 'normalization = prenormalized'
[2599] UCollate.pm:68> INFO - Overriding locale 'fr-FR' defaults 'variable = shifted' with 'variable = non-ignorable'
[2600] Biber.pm:3809> INFO - Sorting list 'apa/global//global/global' of type 'entry' with template 'apa' and locale 'fr-FR'
[2600] Biber.pm:3815> INFO - No sort tailoring available for locale 'fr-FR'
[2834] bbl.pm:617> INFO - Writing 'main.bbl' with encoding 'UTF-8'
[3102] bbl.pm:720> INFO - Output to main.bbl
[3102] Biber.pm:110> INFO - WARNINGS: 14
......@@ -109,9 +109,9 @@
\defcounter {refsection}{0}\relax
\contentsline {xchapter}{Analyse d'erreurs et exploitation de repr\IeC {\'e}sentations internes}{147}{chapter.7}
\defcounter {refsection}{0}\relax
\contentsline {figure}{\numberline {7.1}{\ignorespaces Distribution des erreurs de notre approche de bout en bout pour l'ensemble de d\IeC {\'e}veloppement de MEDIA. Extraction des 30 concepts s\IeC {\'e}mantiques avec le plus d'erreurs. En bleu, le nombre total d'erreurs, en orange, le nombre d'insertions, en vert, le nombre de suppressions et en rouge, le nombre de substitutions.}}{150}{figure.7.1}
\contentsline {figure}{\numberline {7.1}{\ignorespaces Distribution des erreurs de notre approche de bout en bout pour l'ensemble de d\IeC {\'e}veloppement de MEDIA. Extraction des 30 concepts s\IeC {\'e}mantiques avec le plus d'erreurs.}}{150}{figure.7.1}
\defcounter {refsection}{0}\relax
\contentsline {figure}{\numberline {7.2}{\ignorespaces Distribution des erreurs de la cha\IeC {\^\i }ne de composants pour l'ensemble de d\IeC {\'e}veloppement de MEDIA. Extraction des 30 concepts s\IeC {\'e}mantiques avec le plus d'erreurs. En bleu, le nombre total d'erreurs, en orange, le nombre d'insertions, en vert, le nombre de suppressions et en rouge, le nombre de substitutions.}}{151}{figure.7.2}
\contentsline {figure}{\numberline {7.2}{\ignorespaces Distribution des erreurs de la cha\IeC {\^\i }ne de composants pour l'ensemble de d\IeC {\'e}veloppement de MEDIA. Extraction des 30 concepts s\IeC {\'e}mantiques avec le plus d'erreurs.}}{151}{figure.7.2}
\defcounter {refsection}{0}\relax
\contentsline {figure}{\numberline {7.3}{\ignorespaces Exemple d'enrichissement d'une s\IeC {\'e}quence pour l'entra\IeC {\^\i }nement d'une t\IeC {\^a}che de segmentation.}}{154}{figure.7.3}
\defcounter {refsection}{0}\relax
......
This diff is collapsed.
......@@ -49,7 +49,7 @@
\defcounter {refsection}{0}\relax
\contentsline {table}{\numberline {5.5}{\ignorespaces R\IeC {\'e}sultats exprim\IeC {\'e}s en Pr\IeC {\'e}cision, Rappel et F-mesure pour la REN sur l'ensemble de test. Comparaison de l'approche augment\IeC {\'e}e et de l'approche augment\IeC {\'e}e en mode \IeC {\'e}toile.}}{120}{table.5.5}
\defcounter {refsection}{0}\relax
\contentsline {table}{\numberline {5.6}{\ignorespaces R\IeC {\'e}sultats exprim\IeC {\'e}s en Pr\IeC {\'e}cision, Rappel et F-mesure pour la REN simplifi\IeC {\'e}e avec une cha\IeC {\^\i }ne de composants compos\IeC {\'e}e de DeepSpeech 2 (DS2) et NeuroNLP2. Les r\IeC {\'e}sultats encadr\IeC {\'e}s par " sont report\IeC {\'e}s du tableau~\ref {res:E2E_augm}.}}{121}{table.5.6}
\contentsline {table}{\numberline {5.6}{\ignorespaces R\IeC {\'e}sultats exprim\IeC {\'e}s en Pr\IeC {\'e}cision, Rappel et F-mesure pour la REN simplifi\IeC {\'e}e avec une cha\IeC {\^\i }ne de composants compos\IeC {\'e}e de DeepSpeech 2 (DS2) et NeuroNLP2. Les r\IeC {\'e}sultats encadr\IeC {\'e}s par " sont report\IeC {\'e}s de la table~\ref {res:E2E_augm}.}}{121}{table.5.6}
\defcounter {refsection}{0}\relax
\contentsline {table}{\numberline {5.7}{\ignorespaces R\IeC {\'e}sultats exprim\IeC {\'e}s en SER pour l'approche de bout en bout avec et sans utilisation de l'extension de l'apprentissage par transfert sur l'ensemble de test ETAPE.}}{123}{table.5.7}
\defcounter {refsection}{0}\relax
......
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {6.1}Application de l'approche de bout en bout \IeC {\`a} l'extraction concepts s\IeC {\'e}mantiques}{\reset@font\mtcSfont 128}{section.6.1}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {6.1.1}Approche par cha\IeC {\^\i }ne de composants}{\reset@font\mtcSSfont 129}{subsection.6.1.1}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {6.1.2}Premier r\IeC {\'e}sultats avec une approche de bout en bout}{\reset@font\mtcSSfont 131}{subsection.6.1.2}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {6.1.2}Premiers r\IeC {\'e}sultats avec une approche de bout en bout}{\reset@font\mtcSSfont 131}{subsection.6.1.2}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode D\IeC {\'e}codage Greedy}{\reset@font\mtcSSSfont 131}{section*.40}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode D\IeC {\'e}codage Beam Search avec un mod\IeC {\`e}le de langage}{\reset@font\mtcSSSfont 132}{section*.41}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Mode \IeC {\'e}toile}{\reset@font\mtcSSSfont 132}{section*.42}}
......
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {7.1}Contexte de l'analyse}{\reset@font\mtcSfont 148}{section.7.1}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {7.2}Analyse d'erreur}{\reset@font\mtcSfont 149}{section.7.2}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.2.1}Distribution des types d'erreurs}{\reset@font\mtcSSfont 150}{subsection.7.2.1}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Approche de bout en bout}{\reset@font\mtcSSSfont 150}{section*.44}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Approche par cha\IeC {\^\i }ne de composants}{\reset@font\mtcSSSfont 151}{section*.45}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.2.2}Probl\IeC {\`e}me de reconnaissance des mots}{\reset@font\mtcSSfont 152}{subsection.7.2.2}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.2.3}Probl\IeC {\`e}me de segmentation en concept}{\reset@font\mtcSSfont 153}{subsection.7.2.3}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {7.3}Analyse de repr\IeC {\'e}sentations internes}{\reset@font\mtcSfont 155}{section.7.3}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.3.1}Extraction des repr\IeC {\'e}sentations}{\reset@font\mtcSSfont 155}{subsection.7.3.1}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.3.2}Visualisation des repr\IeC {\'e}sentations}{\reset@font\mtcSSfont 157}{subsection.7.3.2}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.3.3}Entra\IeC {\^\i }nement de classifieurs externes}{\reset@font\mtcSSfont 159}{subsection.7.3.3}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Param\IeC {\`e}tres des classifieurs}{\reset@font\mtcSSSfont 160}{section*.44}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Performances de classification}{\reset@font\mtcSSSfont 160}{section*.45}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.3.3}Entra\IeC {\^\i }nement de classifieurs externes}{\reset@font\mtcSSfont 158}{subsection.7.3.3}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Param\IeC {\`e}tres des classifieurs}{\reset@font\mtcSSSfont 159}{section*.46}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Performances de classification}{\reset@font\mtcSSSfont 160}{section*.47}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {7.4}Mesure de confiance}{\reset@font\mtcSfont 162}{section.7.4}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.4.1}Extraction de la mesure de confiance}{\reset@font\mtcSSfont 162}{subsection.7.4.1}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.4.2}Exp\IeC {\'e}rimentations et r\IeC {\'e}sultats}{\reset@font\mtcSSfont 163}{subsection.7.4.2}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {7.5}Conclusion}{\reset@font\mtcSfont 166}{section.7.5}}
{\reset@font\mtcSSfont\mtc@string\contentsline{subsection}{\noexpand \leavevmode \numberline {7.4.2}Exp\IeC {\'e}rimentations et r\IeC {\'e}sultats}{\reset@font\mtcSSfont 162}{subsection.7.4.2}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {7.5}Conclusion}{\reset@font\mtcSfont 167}{section.7.5}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {8.1}Conclusion}{\reset@font\mtcSfont 169}{section.8.1}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {8.2}Perspectives}{\reset@font\mtcSfont 172}{section.8.2}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Optimisation de l'architecture neuronale}{\reset@font\mtcSSSfont 172}{section*.46}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Extension de la mesure de confiance}{\reset@font\mtcSSSfont 172}{section*.47}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode \IeC {\'E}volution de l'architecture neuronale}{\reset@font\mtcSSSfont 172}{section*.48}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Enrichissement par des connaissances \IeC {\`a} priori}{\reset@font\mtcSSSfont 172}{section*.49}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode \IeC {\'E}tude d\IeC {\'e}taill\IeC {\'e}e de la strat\IeC {\'e}gie de curriculum}{\reset@font\mtcSSSfont 173}{section*.50}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode D\IeC {\'e}tection d'incoh\IeC {\'e}rences dans les d\IeC {\'e}finitions s\IeC {\'e}mantiques}{\reset@font\mtcSSSfont 174}{section*.51}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Augmentation automatique des donn\IeC {\'e}es}{\reset@font\mtcSSSfont 174}{section*.52}}
{\reset@font\mtcSfont\mtc@string\contentsline{section}{\noexpand \leavevmode \numberline {8.3}Co\IeC {\^u}t environnemental de la th\IeC {\`e}se}{\reset@font\mtcSfont 174}{section.8.3}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Optimisation de l'architecture neuronale}{\reset@font\mtcSSSfont 172}{section*.48}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Extension de la mesure de confiance}{\reset@font\mtcSSSfont 172}{section*.49}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode \IeC {\'E}volution de l'architecture neuronale}{\reset@font\mtcSSSfont 172}{section*.50}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Enrichissement par des connaissances \IeC {\`a} priori}{\reset@font\mtcSSSfont 172}{section*.51}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode \IeC {\'E}tude d\IeC {\'e}taill\IeC {\'e}e de la strat\IeC {\'e}gie de curriculum}{\reset@font\mtcSSSfont 173}{section*.52}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode D\IeC {\'e}tection d'incoh\IeC {\'e}rences dans les d\IeC {\'e}finitions s\IeC {\'e}mantiques}{\reset@font\mtcSSSfont 174}{section*.53}}
{\reset@font\mtcSSSfont\mtc@string\contentsline{subsubsection}{\noexpand \leavevmode Augmentation automatique des donn\IeC {\'e}es}{\reset@font\mtcSSSfont 174}{section*.54}}
......@@ -97,7 +97,7 @@
\BOOKMARK [0][-]{chapter.6}{Extraction de concepts s\351mantiques}{part.2}% 97
\BOOKMARK [1][-]{section.6.1}{Application de l'approche de bout en bout \340 l'extraction concepts s\351mantiques}{chapter.6}% 98
\BOOKMARK [2][-]{subsection.6.1.1}{Approche par cha\356ne de composants}{section.6.1}% 99
\BOOKMARK [2][-]{subsection.6.1.2}{Premier r\351sultats avec une approche de bout en bout}{section.6.1}% 100
\BOOKMARK [2][-]{subsection.6.1.2}{Premiers r\351sultats avec une approche de bout en bout}{section.6.1}% 100
\BOOKMARK [1][-]{section.6.2}{Transfert d'apprentissage pilot\351 par une strat\351gie de curriculum}{chapter.6}% 101
\BOOKMARK [2][-]{subsection.6.2.1}{Apprentissage par curriculum}{section.6.2}% 102
\BOOKMARK [2][-]{subsection.6.2.2}{Association du transfert et du curriculum d'apprentissage}{section.6.2}% 103
......@@ -123,6 +123,6 @@
\BOOKMARK [0][-]{chapter.8}{Conclusion et perspectives}{part.2}% 123
\BOOKMARK [1][-]{section.8.1}{Conclusion}{chapter.8}% 124
\BOOKMARK [1][-]{section.8.2}{Perspectives}{chapter.8}% 125
\BOOKMARK [1][-]{section.8.3}{Co\373t environnemental de la th\350se}{chapter.8}% 126
\BOOKMARK [0][-]{chapter*.54}{R\351f\351rences personnelles}{part.2}% 127
\BOOKMARK [0][-]{chapter*.57}{R\351f\351rences}{part.2}% 128
\BOOKMARK [0][-]{chapter*.55}{Annexes}{part.2}% 126
\BOOKMARK [0][-]{chapter*.58}{R\351f\351rences personnelles}{part.2}% 127
\BOOKMARK [0][-]{chapter*.61}{R\351f\351rences}{part.2}% 128
No preview for this file type
......@@ -95,6 +95,10 @@
\backmatter
\input{./Conclusion/conclusion}
\clearemptydoublepage
\backmatter
\input{./Annexe/annexes}
% Chapitre pour la bibliographie
% Bibliography chapter
......
......@@ -269,7 +269,7 @@
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {6.1.1}Approche par cha\IeC {\^\i }ne de composants}{129}{subsection.6.1.1}
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {6.1.2}Premier r\IeC {\'e}sultats avec une approche de bout en bout}{131}{subsection.6.1.2}
\contentsline {subsection}{\numberline {6.1.2}Premiers r\IeC {\'e}sultats avec une approche de bout en bout}{131}{subsection.6.1.2}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{D\IeC {\'e}codage Greedy}{131}{section*.40}
\defcounter {refsection}{0}\relax
......@@ -303,6 +303,10 @@
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {7.2.1}Distribution des types d'erreurs}{150}{subsection.7.2.1}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Approche de bout en bout}{150}{section*.44}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Approche par cha\IeC {\^\i }ne de composants}{151}{section*.45}
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {7.2.2}Probl\IeC {\`e}me de reconnaissance des mots}{152}{subsection.7.2.2}
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {7.2.3}Probl\IeC {\`e}me de segmentation en concept}{153}{subsection.7.2.3}
......@@ -313,19 +317,19 @@
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {7.3.2}Visualisation des repr\IeC {\'e}sentations}{157}{subsection.7.3.2}
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {7.3.3}Entra\IeC {\^\i }nement de classifieurs externes}{159}{subsection.7.3.3}
\contentsline {subsection}{\numberline {7.3.3}Entra\IeC {\^\i }nement de classifieurs externes}{158}{subsection.7.3.3}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Param\IeC {\`e}tres des classifieurs}{160}{section*.44}
\contentsline {subsubsection}{Param\IeC {\`e}tres des classifieurs}{159}{section*.46}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Performances de classification}{160}{section*.45}
\contentsline {subsubsection}{Performances de classification}{160}{section*.47}
\defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {7.4}Mesure de confiance}{162}{section.7.4}
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {7.4.1}Extraction de la mesure de confiance}{162}{subsection.7.4.1}
\defcounter {refsection}{0}\relax
\contentsline {subsection}{\numberline {7.4.2}Exp\IeC {\'e}rimentations et r\IeC {\'e}sultats}{163}{subsection.7.4.2}
\contentsline {subsection}{\numberline {7.4.2}Exp\IeC {\'e}rimentations et r\IeC {\'e}sultats}{162}{subsection.7.4.2}
\defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {7.5}Conclusion}{166}{section.7.5}
\contentsline {section}{\numberline {7.5}Conclusion}{167}{section.7.5}
\defcounter {refsection}{0}\relax
\contentsline {chapter}{\numberline {8}Conclusion et perspectives}{169}{chapter.8}
\defcounter {refsection}{0}\relax
......@@ -333,24 +337,24 @@
\defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {8.2}Perspectives}{172}{section.8.2}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Optimisation de l'architecture neuronale}{172}{section*.46}
\contentsline {subsubsection}{Optimisation de l'architecture neuronale}{172}{section*.48}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Extension de la mesure de confiance}{172}{section*.47}
\contentsline {subsubsection}{Extension de la mesure de confiance}{172}{section*.49}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{\IeC {\'E}volution de l'architecture neuronale}{172}{section*.48}
\contentsline {subsubsection}{\IeC {\'E}volution de l'architecture neuronale}{172}{section*.50}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Enrichissement par des connaissances \IeC {\`a} priori}{172}{section*.49}
\contentsline {subsubsection}{Enrichissement par des connaissances \IeC {\`a} priori}{172}{section*.51}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{\IeC {\'E}tude d\IeC {\'e}taill\IeC {\'e}e de la strat\IeC {\'e}gie de curriculum}{173}{section*.50}
\contentsline {subsubsection}{\IeC {\'E}tude d\IeC {\'e}taill\IeC {\'e}e de la strat\IeC {\'e}gie de curriculum}{173}{section*.52}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{D\IeC {\'e}tection d'incoh\IeC {\'e}rences dans les d\IeC {\'e}finitions s\IeC {\'e}mantiques}{174}{section*.51}
\contentsline {subsubsection}{D\IeC {\'e}tection d'incoh\IeC {\'e}rences dans les d\IeC {\'e}finitions s\IeC {\'e}mantiques}{174}{section*.53}
\defcounter {refsection}{0}\relax
\contentsline {subsubsection}{Augmentation automatique des donn\IeC {\'e}es}{174}{section*.52}
\contentsline {subsubsection}{Augmentation automatique des donn\IeC {\'e}es}{174}{section*.54}
\defcounter {refsection}{0}\relax
\contentsline {section}{\numberline {8.3}Co\IeC {\^u}t environnemental de la th\IeC {\`e}se}{174}{section.8.3}
\contentsline {chapter}{Annexes}{175}{chapter*.55}
\defcounter {refsection}{0}\relax
\contentsline {chapter}{R\IeC {\'e}f\IeC {\'e}rences personnelles}{177}{chapter*.54}
\contentsline {chapter}{R\IeC {\'e}f\IeC {\'e}rences personnelles}{177}{chapter*.58}
\defcounter {refsection}{0}\relax
\contentsline {chapter}{R\IeC {\'e}f\IeC {\'e}rences}{179}{chapter*.57}
\contentsline {chapter}{R\IeC {\'e}f\IeC {\'e}rences}{179}{chapter*.61}
\babel@toc {french}{}
\babel@toc {english}{}
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment