Commit eb8b0d34 authored by Antoine Caubrière's avatar Antoine Caubrière
Browse files

ajout d'un TODO V finale (coquille sur normalisation des batchs)

parent f6acb247
......@@ -506,6 +506,7 @@ Cette augmentation automatique est portée sur les ensembles d'apprentissages un
\subsubsection{Expériences et résultats}
\label{subsubsec:exp_init}
% TODO : important version finale !! tout le système est en btach norm !!
% DS2 paramètres
Dans le cadre de nos expérimentations, nous paramétrons l'architecture de DeepSpeech 2 avec 2 couches CNN, 5 couches bLSTM avec normalisation des batchs, 1 couche linéaire et enfin la couche de sortie softmax.
Pour les couches CNN, nous utilisons 32 filtres et nous paramétrons la taille des couches bLSTM à 800 unités.
......
......@@ -342,6 +342,7 @@ Nous apprenons un modèle NeuroNLP2 à l'aide des annotations d'EN manuelles, pu
Nous n'ajoutons pas de données supplémentaires et nous ne portons pas l'annotation en EN sur les données téléphoniques en raison de leurs annotations initiales en concept sémantique.
Par l'intermédiaire de l'annotation automatique, nous cumulons un ensemble d'apprentissage de près de 290 heures annotées manuellement et automatiquement en EN.
% TODO : attention normalisation des batchs présente sur tout le système !!!! : important version finale !
Pour la réalisation de nos expérimentations, nous continuons d'exploiter notre implémentation de Deep Speech 2 de façon identique.
C'est-à-dire, une architecture composée de 2 couches CNN, 5 couches bLSTM avec normalisation des batchs, 1 couche linéaire et une couche de sorties softmax.
Pour les couches CNN, nous utilisons à nouveau 32 filtres et nous conservons la taille des couches bLSTM à 800 unités.
......
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment