parent 1eeeaa57
 %!TEX root = m2_DL_GANS.tex %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %\begin{frame} % \frametitle{} %\begin{block}{} % \begin{itemize} % \item TEMPLATE % \end{itemize} %\end{block} %\end{frame} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{frame} \frametitle{Modèles discriminants vs. modèles génératifs} %A discriminative model learns a function that maps the input data (x) to some desired output class label (y). In probabilistic terms, they directly learn the conditional distribution P(y|x). %A generative model tries to learn the joint probability of the input data and labels simultaneously, i.e. P(x,y). This can be converted to P(y|x) for classification via Bayes rule, but the generative ability could be used for something else as well, such as creating likely new (x, y) samples. \begin{block}{Modèle discriminant} \begin{itemize} \item Apprend une fonction qui fait correspondre les données d'entrée $\vx$ à une certaine classe de sortie $y$ \item modélise la probabilité conditionnelle $p(y|\vx)$ \end{itemize} \end{block} \begin{block}{Modèle génératif} \begin{itemize} \item Apprend une fonction estimant la distribution de probabilités jointe des entrées $\vx$ et des sorties $y$ \item Modélise la distribution de probabilités jointe $p(\vx, y)$ \item Peut être utilisé pour la classification : \begin{itemize} \item Règle de Bayes: $p(\vx, y) = p(y | \vx)p(\vx)$ \end{itemize} \item[\ra] MAIS l'intérêt réside dans la possibilité de \textbf{créer/générer} de nouveaux exemples (\vx,y) \item Possibilité de \textbf{comprendre} et \textbf{expliquer} la structure sous-jacente des données d'entrée \item Sans même avoir de données annotées ! \end{itemize} \end{block} \end{frame} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{frame} \frametitle{GAN : formalisation} \begin{block}{} \begin{itemize} \item Soit : \begin{itemize} \item $q(\vx)$ : distribution marginale des \textbf{données} \item[\ra] On ne la connait pas ! + on ne veut pas poser d'a priori sur sa forme \item $p(\vx)$ : la distribution marginale du \textbf{modèle} \begin{itemize} \item $p(\vx) = \int p(\vz)p(\vx|\vz) d\vz$ \end{itemize} \end{itemize} \item Les propriétés suivantes affectent la taille de sortie $o_j$ d'une couche convolutionnelle selon l'axe $j$: \end{itemize} \begin{textblock*}{100mm}[0,0](100mm,30mm) \only<1>{\includegraphics[valign=t, width=0.5\textwidth]{figures/gan_architecture_1} } \only<2>{\includegraphics[valign=t, width=0.5\textwidth]{figures/gan_architecture_2} } \only<3>{\includegraphics[valign=t, width=0.5\textwidth]{figures/gan_architecture_3} } \only<4>{\includegraphics[valign=t, width=0.5\textwidth]{figures/gan_architecture_full} } \end{textblock*} \end{block} \end{frame}