@@ -506,6 +506,7 @@ Cette augmentation automatique est portée sur les ensembles d'apprentissages un
\subsubsection{Expériences et résultats}
\label{subsubsec:exp_init}
% TODO : important version finale !! tout le système est en btach norm !!
% DS2 paramètres
Dans le cadre de nos expérimentations, nous paramétrons l'architecture de DeepSpeech 2 avec 2 couches CNN, 5 couches bLSTM avec normalisation des batchs, 1 couche linéaire et enfin la couche de sortie softmax.
Pour les couches CNN, nous utilisons 32 filtres et nous paramétrons la taille des couches bLSTM à 800 unités.
@@ -342,6 +342,7 @@ Nous apprenons un modèle NeuroNLP2 à l'aide des annotations d'EN manuelles, pu
Nous n'ajoutons pas de données supplémentaires et nous ne portons pas l'annotation en EN sur les données téléphoniques en raison de leurs annotations initiales en concept sémantique.
Par l'intermédiaire de l'annotation automatique, nous cumulons un ensemble d'apprentissage de près de 290 heures annotées manuellement et automatiquement en EN.
% TODO : attention normalisation des batchs présente sur tout le système !!!! : important version finale !
Pour la réalisation de nos expérimentations, nous continuons d'exploiter notre implémentation de Deep Speech 2 de façon identique.
C'est-à-dire, une architecture composée de 2 couches CNN, 5 couches bLSTM avec normalisation des batchs, 1 couche linéaire et une couche de sorties softmax.
Pour les couches CNN, nous utilisons à nouveau 32 filtres et nous conservons la taille des couches bLSTM à 800 unités.