Commit 96214456 authored by Loïc Barrault's avatar Loïc Barrault
Browse files

update

parent 6ea31fce
...@@ -13,39 +13,6 @@ ...@@ -13,39 +13,6 @@
} }
\def\swidth{1cm}
\setbeamersize{sidebar width left=\swidth}
\setbeamertemplate{sidebar left}
{
% {\usebeamerfont{title in sidebar}%
% \vskip1.5em%
% \usebeamercolor[fg]{title in sidebar}%
% \insertshorttitle[width=\swidth,center,respectlinebreaks]\par%
% \vskip1.25em%
% }%
% {%
% \usebeamercolor[fg]{author in sidebar}%
% \usebeamerfont{author in sidebar}%
% \insertshortauthor[width=\swidth,center,respectlinebreaks]\par%
% \vskip1.25em%
% }%
\hbox to2cm{\hss\insertlogo\hss}
% \vskip1.25em%
\insertverticalnavigation{\swidth}%
% \vfill
\hbox to2cm{\hskip0.6cm\usebeamerfont{subsection in
sidebar}\strut\usebeamercolor[fg]{subsection in
sidebar} }
% \vskip3pt%
}%
%\insertframenumber/\inserttotalframenumber\hfill}%
%\usepackage[utf8]{inputenc}
%\usepackage[T1]{fontenc}
%\usepackage{comment}
%\usepackage{xspace}
%\usepackage{amssymb,amsmath,graphicx,multirow,epsfig,epic,eepic}
\usepackage[export]{adjustbox} \usepackage[export]{adjustbox}
\usepackage[absolute,showboxes,overlay]{textpos} \usepackage[absolute,showboxes,overlay]{textpos}
...@@ -59,19 +26,14 @@ ...@@ -59,19 +26,14 @@
\newcommand{\vect}[1] % vecteur colonne \newcommand{\vect}[1] % vecteur colonne
{ \left( \begin{array}[c]{c} #1 \end{array} \right) } { \left( \begin{array}[c]{c} #1 \end{array} \right) }
%\newcommand{\R}{I\!\!R}
\newcommand{\R}{\mathbb{R}} \newcommand{\R}{\mathbb{R}}
\newcommand{\vc}{\mathbf{c}}
%\newcommand{\vw}{\mathbf{w}}
%\newcommand{\mW}{\mathbf{W}}
\newcommand{\wij}{w_{ij}} % poids w_ij
\newcommand{\half}{\frac{1}{2}} % fraction un demi
\newcommand{\gl}{\begin{array}[c]{c} > \\[-14pt] < \end{array}} \newcommand{\gl}{\begin{array}[c]{c} > \\[-14pt] < \end{array}}
\newcommand{\tb}[1]{ \left( \begin{array}[c]{c} #1 \end{array} \right) } \newcommand{\tb}[1]{ \left( \begin{array}[c]{c} #1 \end{array} \right) }
\input{../macros.tex} \input{../../macros.tex}
\input{../macros_beamer.tex} \input{../../macros_fr.tex}
\input{../../macros_beamer.tex}
\title[AAN - MLP]{Apprentissage Automatique Numérique \\ \large{Perceptron} \\ \large{Perceptron multi-couches}} \title[AAN - MLP]{Apprentissage Automatique Numérique \\ \large{Perceptron} \\ \large{Perceptron multi-couches}}
......
...@@ -3,6 +3,7 @@ ...@@ -3,6 +3,7 @@
%\section*{MLP} %\section*{MLP}
%\subsection*{Intro} %\subsection*{Intro}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Motivation pour les perceptrons multi-couches} \frametitle{Motivation pour les perceptrons multi-couches}
...@@ -12,12 +13,13 @@ problème du XOR. ...@@ -12,12 +13,13 @@ problème du XOR.
\vfill \vfill
\begin{center} \begin{center}
\includegraphics[width=0.7\textwidth,center]{figures/mlp_xor} \\ \includegraphics[width=0.5\textwidth,center]{figures/mlp_xor} \\
a XOR b = (a OU b) ET NON (a ET b) a XOR b = (a OU b) ET NON (a ET b)
\end{center} \end{center}
\vfill \vfill
\end{frame} \end{frame}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Le perceptron multi-couches} \frametitle{Le perceptron multi-couches}
...@@ -35,7 +37,7 @@ de \mbox{$\R^n \rightarrow \R^m$}. ...@@ -35,7 +37,7 @@ de \mbox{$\R^n \rightarrow \R^m$}.
\end{itemize} \end{itemize}
\end{frame} \end{frame}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Le perceptron multi-couches : reconnaissance} \frametitle{Le perceptron multi-couches : reconnaissance}
\includegraphics[width=0.7\textwidth,center]{figures/BpMlp} \includegraphics[width=0.7\textwidth,center]{figures/BpMlp}
...@@ -51,6 +53,7 @@ de \mbox{$\R^n \rightarrow \R^m$}. ...@@ -51,6 +53,7 @@ de \mbox{$\R^n \rightarrow \R^m$}.
%\end{center} %\end{center}
\end{frame} \end{frame}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Le perceptron multi-couches : reconnaissance} \frametitle{Le perceptron multi-couches : reconnaissance}
\vspace{-1cm} \vspace{-1cm}
...@@ -79,9 +82,8 @@ de \mbox{$\R^n \rightarrow \R^m$}. ...@@ -79,9 +82,8 @@ de \mbox{$\R^n \rightarrow \R^m$}.
\end{frame} \end{frame}
%\subsection*{Le perceptron multi-couches : apprentissage} %\subsection*{Le perceptron multi-couches : apprentissage}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Le perceptron multi-couches : apprentissage} \frametitle{Le perceptron multi-couches : apprentissage}
...@@ -110,7 +112,7 @@ de \mbox{$\R^n \rightarrow \R^m$}. ...@@ -110,7 +112,7 @@ de \mbox{$\R^n \rightarrow \R^m$}.
\end{itemize} \end{itemize}
\end{frame} \end{frame}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\small \small
\frametitle{Rétro-propagation du gradient (Backpropagation)} \frametitle{Rétro-propagation du gradient (Backpropagation)}
...@@ -128,6 +130,7 @@ $\begin{array}[c]{rcl} ...@@ -128,6 +130,7 @@ $\begin{array}[c]{rcl}
\vfill \vfill
\end{frame} \end{frame}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\small \small
\frametitle{Rétro-propagation du gradient (Backpropagation)} \frametitle{Rétro-propagation du gradient (Backpropagation)}
...@@ -168,16 +171,15 @@ $\begin{array}[c]{rcl} ...@@ -168,16 +171,15 @@ $\begin{array}[c]{rcl}
\centerline{\Ra\ calcul itératif de la sortie vers l'entrée} \centerline{\Ra\ calcul itératif de la sortie vers l'entrée}
\end{frame} \end{frame}
%--------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Backpropagation~: fonctions d'erreurs} \frametitle{Backpropagation~: fonctions d'erreurs}
\begin{block}{Pour chaque type de problème~:} \textbf{Pour chaque type de problème~:}
\begin{itemize} \begin{itemize}
\item Quelle fonction d'activation ? \item Quelle fonction d'activation ?
\item Quelle fonction d'erreur ? \item Quelle fonction d'erreur ?
\end{itemize} \end{itemize}
\end{block}
\begin{block}{Régression~:} \begin{block}{Régression~:}
...@@ -196,7 +198,7 @@ $\begin{array}[c]{rcl} ...@@ -196,7 +198,7 @@ $\begin{array}[c]{rcl}
\end{block} \end{block}
\end{frame} \end{frame}
%--------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Backpropagation~: fonctions d'erreurs} \frametitle{Backpropagation~: fonctions d'erreurs}
\begin{block}{Classification~: sigmoïde + erreur euclidienne} \begin{block}{Classification~: sigmoïde + erreur euclidienne}
...@@ -227,6 +229,7 @@ $\begin{array}[c]{rcl} ...@@ -227,6 +229,7 @@ $\begin{array}[c]{rcl}
%\subsection*{Astuces} %\subsection*{Astuces}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Déroulement d'un apprentissage} \frametitle{Déroulement d'un apprentissage}
...@@ -247,6 +250,7 @@ $\begin{array}[c]{rcl} ...@@ -247,6 +250,7 @@ $\begin{array}[c]{rcl}
\end{itemize} \end{itemize}
\end{frame} \end{frame}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Backpropagation: normalisation et initialisation} \frametitle{Backpropagation: normalisation et initialisation}
...@@ -272,7 +276,7 @@ $\begin{array}[c]{rcl} ...@@ -272,7 +276,7 @@ $\begin{array}[c]{rcl}
\end{frame} \end{frame}
%-------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame}[t] \begin{frame}[t]
\frametitle{Backpropagation~: choix des exemples} \frametitle{Backpropagation~: choix des exemples}
...@@ -280,18 +284,17 @@ $\begin{array}[c]{rcl} ...@@ -280,18 +284,17 @@ $\begin{array}[c]{rcl}
minimiser $\ds J=\sum_{e \in App} E(\vy^{e}, \vc^{e})$ avec $App$ les exemples d'apprentissage minimiser $\ds J=\sum_{e \in App} E(\vy^{e}, \vc^{e})$ avec $App$ les exemples d'apprentissage
\end{block} \end{block}
\begin{block}{\bf Méthode \alert{\textit{batch}}~:} {\bf Méthode \alert{\textit{batch}}~:}
\begin{itemize} \begin{itemize}
\item présenter \textbf{tous} les exemples et cumuler les \item présenter \textbf{tous} les exemples et cumuler les
$\partial E / \partial \wij$ $\partial E / \partial \wij$
\item puis faire une mise à jour des poids \item puis faire une mise à jour des poids
\item[\ra] problème~: convergence est très lente \item[\ra] problème~: convergence est très lente
\end{itemize} \end{itemize}
\end{block}
\end{frame} \end{frame}
%-------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame}[t] \begin{frame}[t]
\frametitle{Backpropagation~: choix des exemples} \frametitle{Backpropagation~: choix des exemples}
...@@ -299,18 +302,17 @@ $\begin{array}[c]{rcl} ...@@ -299,18 +302,17 @@ $\begin{array}[c]{rcl}
minimiser $\ds J=\sum_{e \in App} E(\vy^{e}, \vc^{e})$ avec $App$ les exemples d'apprentissage minimiser $\ds J=\sum_{e \in App} E(\vy^{e}, \vc^{e})$ avec $App$ les exemples d'apprentissage
\end{block} \end{block}
\begin{block}{\bf Méthode \alert{\textit{stochastique}}~:} {\bf Méthode \alert{\textit{stochastique}}~:}
\begin{itemize} \begin{itemize}
\item mise à jour des poids après \textbf{chaque} exemple (choix aléatoire !) \item mise à jour des poids après \textbf{chaque} exemple (choix aléatoire !)
\item[+] on profite des redondances entre les exemples \item[+] on profite des redondances entre les exemples
\item[--] $E$ (erreur) peut augmenter, mais cela permet éventuellement de s'échapper d'un minimum local \item[--] $E$ (erreur) peut augmenter, mais cela permet éventuellement de s'échapper d'un minimum local
\end{itemize} \end{itemize}
\end{block}
\end{frame} \end{frame}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%\begin{frame} %%\begin{frame}
%% %%
%%\frametitle{Backpropagation~: Algorithmes d'Optimisation} %%\frametitle{Backpropagation~: Algorithmes d'Optimisation}
...@@ -329,7 +331,7 @@ $\begin{array}[c]{rcl} ...@@ -329,7 +331,7 @@ $\begin{array}[c]{rcl}
%% %%
%% %%
%-------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Backpropagation~: paramètres d'apprentissage} \frametitle{Backpropagation~: paramètres d'apprentissage}
...@@ -355,10 +357,10 @@ $\begin{array}[c]{rcl} ...@@ -355,10 +357,10 @@ $\begin{array}[c]{rcl}
\end{block} \end{block}
\end{frame} \end{frame}
%-------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Réseaux de Neurones en pratique} \frametitle{Réseaux de Neurones en pratique}
\begin{block}{Architecture du réseau} \textbf{Architecture du réseau}
\begin{itemize} \begin{itemize}
\item Dimension de l'entrée généralement donnée par le problème \item Dimension de l'entrée généralement donnée par le problème
\item Nombre de sorties = nombre de classes \item Nombre de sorties = nombre de classes
...@@ -370,13 +372,13 @@ $\begin{array}[c]{rcl} ...@@ -370,13 +372,13 @@ $\begin{array}[c]{rcl}
donne les meilleurs résultats sur les données de développement donne les meilleurs résultats sur les données de développement
\end{itemize} \end{itemize}
\end{itemize} \end{itemize}
\end{block}
\end{frame} \end{frame}
%-------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{frame} \begin{frame}
\frametitle{Réseaux de neurones en pratique} \frametitle{Réseaux de neurones en pratique}
\begin{block}{Apprentissage} \textbf{Apprentissage}
\begin{itemize} \begin{itemize}
\item Il est important de mélanger les exemples \\ \item Il est important de mélanger les exemples \\
...@@ -401,6 +403,5 @@ $\begin{array}[c]{rcl} ...@@ -401,6 +403,5 @@ $\begin{array}[c]{rcl}
\end{itemize} \end{itemize}
% \item Effet de \textbf{sur-apprentissage} % \item Effet de \textbf{sur-apprentissage}
\end{itemize} \end{itemize}
\end{block}
\end{frame} \end{frame}
...@@ -16,7 +16,7 @@ similaire à celui d'un cerveau humain ? ...@@ -16,7 +16,7 @@ similaire à celui d'un cerveau humain ?
\begin{frame} \begin{frame}
\frametitle{Le Cerveau Humain} \frametitle{Le Cerveau Humain}
\begin{block}{Caractéristiques :} \textbf{Caractéristiques :}
\begin{itemize} \begin{itemize}
\item 10 billions = $10.10^{12}$ cellules nerveuses (neurones) \item 10 billions = $10.10^{12}$ cellules nerveuses (neurones)
\item Chacune connectée à 10~000 autres via les \alert{synapses} \item Chacune connectée à 10~000 autres via les \alert{synapses}
...@@ -29,7 +29,6 @@ similaire à celui d'un cerveau humain ? ...@@ -29,7 +29,6 @@ similaire à celui d'un cerveau humain ?
perception visuelle très complexe en 100ms \\ perception visuelle très complexe en 100ms \\
(\cad\ en 10 opérations !) } (\cad\ en 10 opérations !) }
\end{itemize} \end{itemize}
\end{block}
\end{frame} \end{frame}
%----------------------------------------------------------------------------------------------- %-----------------------------------------------------------------------------------------------
...@@ -99,14 +98,13 @@ similaire à celui d'un cerveau humain ? ...@@ -99,14 +98,13 @@ similaire à celui d'un cerveau humain ?
\begin{frame} \begin{frame}
\frametitle{Apprentissage dans le cerveau humain} \frametitle{Apprentissage dans le cerveau humain}
\begin{block}{Principes :} \textbf{Principes :}
\begin{itemize} \begin{itemize}
\item Modification de la force des connexions \item Modification de la force des connexions
\item Ajout ou suppression de connexions \item Ajout ou suppression de connexions
\item Aucune supervision n'est nécessaire \item Aucune supervision n'est nécessaire
\item ... \item ...
\end{itemize} \end{itemize}
\end{block}
\end{frame} \end{frame}
%----------------------------------------------------------------------------------------------- %-----------------------------------------------------------------------------------------------
...@@ -337,20 +335,20 @@ du cerveau humain ...@@ -337,20 +335,20 @@ du cerveau humain
\begin{frame} \begin{frame}
\frametitle{Le perceptron : algorithme d'apprentissage} \frametitle{Le perceptron : algorithme d'apprentissage}
\begin{block}{Règle du perceptron (correction d'erreur) :} \begin{block}{\textbf{Règle du perceptron (correction d'erreur) :}}
Répéter tant qu'il y a des exemples mal classés : Répéter tant qu'il y a des exemples mal classés :
\begin{itemize} \begin{itemize}
\item classer l'exemple courant $\vx$ : \\ \item classer l'exemple courant $\vx$ : \\
\begin{itemize} \begin{itemize}
\item[] si réponse correcte $(\bar{\vw}^t \hat{\vx} >= 0) $ alors $\hat{\vw}_{(i+1)} = \hat{\vw}_{(i)} $ \\ \item[] si réponse correcte $(\bar{\vw}^t \hat{\vx} >= 0) $ alors $\hat{\vw}_{(i+1)} = \hat{\vw}_{(i)} $ \\
\item[] si réponse fausse $(\bar{\vw}^t \hat{\vx} < 0) $ alors $\hat{\vw}_{(i+1)} = \hat{\vw}_{(i)} + \hat{\vx} $ \item[] si réponse fausse $(\bar{\vw}^t \hat{\vx} < 0) $ alors $\hat{\vw}_{(i+1)} = \hat{\vw}_{(i)} + \hat{\vx} $
\end{itemize} \end{itemize}
\end{itemize} \end{itemize}
\end{block} \end{block}
\vfill \vfill
\begin{block}{Variantes :} \textbf{Variantes :}
\begin{itemize} \begin{itemize}
\item[1)] \item[1)]
\begin{itemize} \begin{itemize}
...@@ -365,7 +363,7 @@ Répéter tant qu'il y a des exemples mal classés : ...@@ -365,7 +363,7 @@ Répéter tant qu'il y a des exemples mal classés :
par passe à travers la base d'apprentissage par passe à travers la base d'apprentissage
\end{itemize} \end{itemize}
\end{itemize} \end{itemize}
\end{block}
\end{frame} \end{frame}
...@@ -502,25 +500,29 @@ Descente de gradient sur une fonction d'erreur $f$ %quadratique ...@@ -502,25 +500,29 @@ Descente de gradient sur une fonction d'erreur $f$ %quadratique
% E = \half \sum_{ex \, e} \left( a^{e} - \vc^{e} \right)^2 % E = \half \sum_{ex \, e} \left( a^{e} - \vc^{e} \right)^2
w_{i,j}(t+1) = w_{i,j}(t) - \lambda \, (a - \vc ) \, x_j w_{i,j}(t+1) = w_{i,j}(t) - \lambda \, (a - \vc ) \, x_j
\] \]
\tabcc{\includegraphics[width=0.4\textwidth]{figures/GradDesc1}}
\hspace{-6mm}
\begin{tabular}[c]{rp{4.5cm}}
\multicolumn{2}{l}{\alert{Minimiser $f(x)$ :}} \\[5pt]
\multicolumn{2}{l}{Choisir point de départ $x_0$} \\
\multicolumn{2}{l}{Procédure itérative :} \\
- & faire un petit pas dans la direction de la plus grande pente
(gradient négatif) \\
- & $\ds x_{t+1} = x_t - \lambda \frac{\partial f(x)}{\partial x}$ \\
\end{tabular}
\end{block} \end{block}
\begin{columns}[T]
\column{.4\textwidth}
\includegraphics[width=0.8\textwidth]{figures/GradDesc1}
\column{.59\textwidth}
\begin{itemize}
\item \alert{Minimiser $f(x)$ :}
\item Choisir point de départ $x_0$
\item Procédure itérative :
\begin{itemize}
\item faire un petit pas dans la direction de la plus grande pente (gradient négatif)
\end{itemize}
\item $\ds x_{t+1} = x_t - \lambda \frac{\partial f(x)}{\partial x}$
\end{itemize}
\end{columns}
\end{frame} \end{frame}
%---------------------------------------------------------------- %----------------------------------------------------------------
\begin{frame} \begin{frame}
\frametitle{Adaline: algorithme d'apprentissage} \frametitle{Adaline: algorithme d'apprentissage}
\begin{block}{\bf Principe :} \textbf{Principe : Descente de gradient sur une mesure d'erreur quadratique}
Descente de gradient sur une mesure d'erreur quadratique
\[ \[
E = \half \sum_{ex \, e} \left( a^{e} - \vc^{e} \right)^2 E = \half \sum_{ex \, e} \left( a^{e} - \vc^{e} \right)^2
\] \]
...@@ -532,14 +534,14 @@ Calcul pour un exemple (on ignore la somme sur les exemples) : ...@@ -532,14 +534,14 @@ Calcul pour un exemple (on ignore la somme sur les exemples) :
\mbox{avec } \mbox{avec }
\Delta w_i & = & \frac{\partial E}{\partial w_i} \Delta w_i & = & \frac{\partial E}{\partial w_i}
\end{eqnarray*} \end{eqnarray*}
\end{block}
\end{frame} \end{frame}
%---------------------------------------------------------------- %----------------------------------------------------------------
\begin{frame} \begin{frame}
\frametitle{Adaline: algorithme d'apprentissage} \frametitle{Adaline: algorithme d'apprentissage}
\begin{block}{\bf Suite : \color{edinred}{chain rule}} {\bf Suite : \color{edinred}{chain rule}}
\begin{eqnarray*} \begin{eqnarray*}
E & = & \half \, (a - \vc)^2 \\ E & = & \half \, (a - \vc)^2 \\
w_i & = & w_i - \lambda \Delta w_i \\[8mm] w_i & = & w_i - \lambda \Delta w_i \\[8mm]
...@@ -551,13 +553,14 @@ Calcul pour un exemple (on ignore la somme sur les exemples) : ...@@ -551,13 +553,14 @@ Calcul pour un exemple (on ignore la somme sur les exemples) :
\frac{\partial}{\partial w_i} \,\, \left( \sum_j w_j x_j \right) \\ \frac{\partial}{\partial w_i} \,\, \left( \sum_j w_j x_j \right) \\
& = & (a - \vc) \, x_i & = & (a - \vc) \, x_i
\end{eqnarray*} \end{eqnarray*}
\end{block}
\end{frame} \end{frame}
\begin{frame} \begin{frame}
\frametitle{Comparaison perceptron/Adaline} \frametitle{Comparaison perceptron/Adaline}
\begin{center}
\scriptsize \scriptsize
\begin{tabular}{|r||c|c|} \begin{tabular}{|r||c|c|}
\hline \hline
...@@ -600,6 +603,7 @@ Calcul pour un exemple (on ignore la somme sur les exemples) : ...@@ -600,6 +603,7 @@ Calcul pour un exemple (on ignore la somme sur les exemples) :
\\[20pt] \\[20pt]
\hline \hline
\end{tabular} \end{tabular}
\end{center}
\end{frame} \end{frame}
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment