<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
	<id>http://os-vps418.infomaniak.ch:1250/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=El-huissier</id>
	<title>Wiki du LAMA (UMR 5127) - Contributions [fr]</title>
	<link rel="self" type="application/atom+xml" href="http://os-vps418.infomaniak.ch:1250/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=El-huissier"/>
	<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php/Sp%C3%A9cial:Contributions/El-huissier"/>
	<updated>2026-04-16T01:12:21Z</updated>
	<subtitle>Contributions</subtitle>
	<generator>MediaWiki 1.39.4</generator>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12519</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12519"/>
		<updated>2020-05-19T08:22:55Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats (ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur de η est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur ne seraient pas acceptables.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Precision.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Precision.png&amp;diff=12518</id>
		<title>Fichier:Precision.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Precision.png&amp;diff=12518"/>
		<updated>2020-05-19T08:22:16Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12506</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12506"/>
		<updated>2020-05-18T09:18:28Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Réseau */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats (ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur de η est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur ne seraient pas acceptables.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12505</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12505"/>
		<updated>2020-05-18T09:16:51Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats (ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur de η est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur ne seraient pas acceptables.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12504</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12504"/>
		<updated>2020-05-18T09:16:25Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats (ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur de η est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptables.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12503</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12503"/>
		<updated>2020-05-18T09:16:04Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Préliminaires */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats (ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur de η est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12502</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12502"/>
		<updated>2020-05-18T09:15:13Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Descente de gradient */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats (ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur de η est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12501</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12501"/>
		<updated>2020-05-18T09:14:52Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Descente de gradient */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur de η est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12500</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12500"/>
		<updated>2020-05-18T09:14:27Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Descente de gradient */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12499</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12499"/>
		<updated>2020-05-18T09:14:21Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Descente de gradient */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats (ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur de η est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12498</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12498"/>
		<updated>2020-05-18T09:09:17Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Les neurones sigmoïdes */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égal à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12497</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12497"/>
		<updated>2020-05-18T09:08:25Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Perceptrons */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaires (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner.&lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12496</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12496"/>
		<updated>2020-05-18T09:07:54Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Deep Learning */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelée le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite.&lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12495</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12495"/>
		<updated>2020-05-18T08:39:19Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreurs ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12494</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12494"/>
		<updated>2020-05-18T08:39:01Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12493</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12493"/>
		<updated>2020-05-18T08:38:30Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Réseau */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
 Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12492</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12492"/>
		<updated>2020-05-18T08:38:10Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Application */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement:&amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
 Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur ne seraient pas acceptable.&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12491</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12491"/>
		<updated>2020-05-18T08:37:00Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montrent les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peut entraîner un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait, quoi qu&#039;il arrive pour éviter les erreurs, et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problèmes, en effet, comme le perceptron, il possède un poids et un biais par entrée; cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif d&#039;un neurone n&#039;est pas de rester seul mais de former un réseau, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme son nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante. Cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien y en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions dû obtenir. L&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondants.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais adéquats(ici matérialisés par v1,v2,etc en fonction du nombre de dimension), on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation, cela nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la valeur est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur. La fonction de coût fonctionne avec les résultats. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste, en partant du résultat, à trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant l&#039;erreur vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cet algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître des chiffres manuscrits. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiples fonctions, qui vont définir le réseau. &amp;lt;br/&amp;gt;&lt;br /&gt;
On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, on la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre.&amp;lt;br/&amp;gt;&lt;br /&gt;
 Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur ne seraient pas acceptable.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12490</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12490"/>
		<updated>2020-05-18T07:48:47Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Préliminaires */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste à partir du résultat, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Data_import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Data_import.png&amp;diff=12489</id>
		<title>Fichier:Data import.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Data_import.png&amp;diff=12489"/>
		<updated>2020-05-18T07:47:59Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12488</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12488"/>
		<updated>2020-05-18T07:45:47Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un réseau performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports sont des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ces problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrées contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sorties contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste à partir du résultat, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12487</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12487"/>
		<updated>2020-05-18T07:41:34Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Entraînement */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époques d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12486</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12486"/>
		<updated>2020-05-18T07:40:51Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Backpropagation */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quels poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12485</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12485"/>
		<updated>2020-05-18T07:40:08Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dit précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la nôtre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Creation_set.png&amp;diff=12484</id>
		<title>Fichier:Creation set.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Creation_set.png&amp;diff=12484"/>
		<updated>2020-05-18T07:37:00Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : El-huissier a téléversé une nouvelle version de Fichier:Creation set.png&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Creation_set.png&amp;diff=12483</id>
		<title>Fichier:Creation set.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Creation_set.png&amp;diff=12483"/>
		<updated>2020-05-18T07:35:11Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : El-huissier a téléversé une nouvelle version de Fichier:Creation set.png&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12481</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12481"/>
		<updated>2020-05-18T07:09:06Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Backpropagation */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique,  consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12480</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12480"/>
		<updated>2020-05-18T06:52:08Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment optimiser leur vitesse pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12479</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12479"/>
		<updated>2020-05-18T06:51:37Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et par la suite un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12478</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12478"/>
		<updated>2020-05-18T06:51:02Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Neurones */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ces supports ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12447</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12447"/>
		<updated>2020-05-17T15:47:04Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Réseau */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée ,y la sortie et w et b respectivement les poids et biais. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12446</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12446"/>
		<updated>2020-05-17T15:46:20Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Réseau */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on définit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12445</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12445"/>
		<updated>2020-05-17T15:44:41Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Réseaux de neurones */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux, les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on dé[[Fichier:Exemple.jpg]]finit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12444</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12444"/>
		<updated>2020-05-17T15:43:25Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Neurones */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour qu&#039;un apprentissage ait lieu il faut un support qui peut supporter des changements. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on dé[[Fichier:Exemple.jpg]]finit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12443</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12443"/>
		<updated>2020-05-17T15:42:19Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon performant.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour que cet apprentissage ait lieu, il faut un support à améliorer. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on dé[[Fichier:Exemple.jpg]]finit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=VISI201_CMI_:_visite_de_laboratoire&amp;diff=12442</id>
		<title>VISI201 CMI : visite de laboratoire</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=VISI201_CMI_:_visite_de_laboratoire&amp;diff=12442"/>
		<updated>2020-05-17T15:36:12Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Sujets réalisés (2019-2020) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* Cours du semestre 2 du parcours CMI Informatique (licence INFO).&lt;br /&gt;
&lt;br /&gt;
* Responsable pour 2019--2020: Jacques-Olivier Lachaud&lt;br /&gt;
* Responsable pour 2018--2019: Jacques-Olivier Lachaud&lt;br /&gt;
* Responsable pour 2017--2018: Jacques-Olivier Lachaud&lt;br /&gt;
* Responsable pour 2016--2017: Jacques-Olivier Lachaud&lt;br /&gt;
&lt;br /&gt;
= Descriptif =&lt;br /&gt;
&lt;br /&gt;
L&#039;objectif du module est de faire découvrir les laboratoires, le monde de la recherche et les enseignants-chercheurs et chercheurs, ainsi que la réflexion scientifique. Cela se fait de deux manières. &lt;br /&gt;
&lt;br /&gt;
D&#039;abord, une partie de ce module consiste à assister à des séminaires dédiés aux étudiants CMI Informatique et Mathématique (1 fois par mois, les jeudi après-midi). [[http://www.lama.univ-savoie.fr/index.php?use=seminaires&amp;amp;&amp;amp;lang=fr&amp;amp;equipe=cmi&amp;amp;annee=1&amp;amp;lang=fr Planning des séminaires CMI]]&lt;br /&gt;
&lt;br /&gt;
Ces séminaires &amp;quot;grand public&amp;quot; portent sur des sujets variées en informatique et mathématiques.&lt;br /&gt;
&lt;br /&gt;
Les étudiants choisissent ensuite d&#039;approfondir un sujet proposé par les enseignants, ou un sujet motivé de leur choix (en accord avec le responsable du module). Ce travail se fait en interaction avec un tuteur académique (5-6 contacts au moins). Ce travail personnel tuteuré donne lieu à la rédaction d&#039;une synthèse sur le sujet sous forme d&#039;une page wiki/web, ainsi que d&#039;un mini-exposé.&lt;br /&gt;
&lt;br /&gt;
= Sujets réalisés (2019-2020) =&lt;br /&gt;
&lt;br /&gt;
* Compression et transformée de Burrow-Wheeler, Simon Léonard (Tuteur : Pierre Hyvernat)&lt;br /&gt;
* Backtracking, Simon Pichenot (Tuteur : Pierre Hyvernat)&lt;br /&gt;
* Transfert de couleur (version 2), Florian Dufaure (Tuteur : Jacques-Olivier Lachaud)&lt;br /&gt;
* [[Génération fractale de terrains]], Hugo Rey (Tuteur : Jacques-Olivier Lachaud)&lt;br /&gt;
* Architectures Orientées Micro-Services, Romain Negro (David Télisson)&lt;br /&gt;
* [[Apprentissage automatique]], Evan L&#039;Huissier (Tuteur : Tom Hirschowitz)&lt;br /&gt;
* [[Algorithmes probabilistes/déterministes pour tester la primalité d&#039;un entier]], Juliette Neyrat (Tuteur : Sébastien Tavenas)&lt;br /&gt;
* [[Base de données orientées Graphe et similarité]], Romain Pajean (Gérald Cavallini)&lt;br /&gt;
* [[Modèles d&#039;évolution de populations]], Théo Guesdon (Tuteur : Jimmy Garnier)&lt;br /&gt;
&lt;br /&gt;
= Sujets proposés (2019-2020) =&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* Compression et transformée de Burrow-Wheeler&lt;br /&gt;
* Backtracking &lt;br /&gt;
* Transfert de couleur (version 2)&lt;br /&gt;
* Génération fractale de terrains&lt;br /&gt;
* Architectures Orientées Micro-Services&lt;br /&gt;
* Apprentissage automatique&lt;br /&gt;
* Algorithmes probabilistes/déterministes pour tester la primalité d&#039;un entier &lt;br /&gt;
* Base de données orientées Graphe, similarité et modèles prédictifs&lt;br /&gt;
&lt;br /&gt;
== Compression et transformée de Burrow-Wheeler ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Pierre Hyvernat&lt;br /&gt;
* Résumé : La transformée de Burrow-Wheeler est l&#039;étape clé de l&#039;algorithme de compression bzip2. C&#039;est une transformation de texte (suite d&#039;octet) qui ne modifie pas la taille, mais ajoute suffisamment de motifs redondants pour améliorer un autre algorithme de compression (algorithme de Huffman dans le cas de bzip2)&lt;br /&gt;
* Objectif : L&#039;objectif est de comprendre le fonctionnement de cette transformation (et de son inverse) et d&#039;implémenter une version naïve de l&#039;algorithme de compression / décompression et de tester sur quelques exemples. Les améliorations de l&#039;algorithme seront ensuite abordées.&lt;br /&gt;
* Liens : Burrows, Michael; Wheeler, David J. (1994), A block sorting lossless  data compression algorithm, Technical Report 124, Digital Equipment  Corporation [[https://www.hpl.hp.com/techreports/Compaq-DEC/SRC-RR-124.pdf PDF]]&lt;br /&gt;
&lt;br /&gt;
== Backtracking ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Pierre Hyvernat&lt;br /&gt;
* Résumé et objectif : La notion de &amp;quot;backtracking&amp;quot; est fondamentale en algorithmique : il s&#039;agit essentiellement de tester des solutions partielles à un problème, en revenant en arrière dès qu&#039;une incohérence est découverte. Le point de départ sera le fascicule 4.5b de D. Knuth &amp;quot;Introduction to backtracking&amp;quot; et permettra de se familiariser avec les concepts, la terminology et des exemples, qu&#039;il faudra implémenter. Une suite possible sera la notion de réduction de problèmes et l&#039;algorithme-X qui permet de &amp;quot;factoriser&amp;quot; de nombreux problèmes de backtracking en un seul algorithme.&lt;br /&gt;
* Liens : D. Knuth, &amp;quot;the art of computer programming introduction to  backtracking&amp;quot; [[https://www-cs-faculty.stanford.edu/~knuth/fasc5b.ps.gz PS]]&lt;br /&gt;
&lt;br /&gt;
== Transfert de couleur (version 2) ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Jacques-Olivier Lachaud&lt;br /&gt;
* Résumé: Le transfert de couleurs de l&#039;image Y vers l&#039;image X consiste à repeindre &amp;quot;au mieux&amp;quot; l&#039;image X avec la palette de couleurs de l&#039;image Y. L&#039;image repeinte X&#039; a alors les mêmes couleurs que l&#039;image Y (mais les pixels ne sont pas répartis pareils). Voir l&#039;exemple de transfert ci-dessous. Il existe plusieurs techniques de transfert de couleurs, mais nous étudierons une technique basée sur le transport optimal. Comme c&#039;est un problème assez difficile dans le cas général, nous étudierons une variante dite par coupe 1D, qui simplifiera considérablement le problème de transport.&lt;br /&gt;
{| class=&amp;quot;wikitable alternance center&amp;quot;&lt;br /&gt;
 |+ Transfert de couleur&lt;br /&gt;
 |----&lt;br /&gt;
 ! scope=&amp;quot;col&amp;quot; | Input !! scope=&amp;quot;col&amp;quot; | Output&lt;br /&gt;
 |----&lt;br /&gt;
 | [[Fichier:horseshoe.jpg|200px]] || [[Fichier:horseshoe-fjord-n40.jpg|200px]]&lt;br /&gt;
 |----&lt;br /&gt;
 | [[Fichier:fjord.jpg|200px]] || [[Fichier:fjord-horseshoe-n40.jpg|200px]]&lt;br /&gt;
 |}&lt;br /&gt;
* Objectifs:&lt;br /&gt;
*# Comprendre la version 1 fait par [[https://www.lama.univ-savoie.fr/mediawiki/index.php/Transport_optimal_par_coupe_1D_et_transfert_de_couleurs_entre_images Lucas Chardonnet]], comprendre les qualités et limites de l&#039;approche (sur quelle type d&#039;image ça marche assez bien par exemple)&lt;br /&gt;
*# Adapter l&#039;algorithme pour qu&#039;il puisse traiter des images de tailles différentes&lt;br /&gt;
*# Réécrire le code en utilisant la bibliothèque python NUMPY pour accélérer les calculs&lt;br /&gt;
*# Changer les espaces de couleurs utilisés: RGB ne convient pas très bien pour mesurer le coût du transport. Transformer le code pour qu&#039;il puisse utiliser plutôt l&#039;espace [[https://fr.wikipedia.org/wiki/L*a*b*_CIE_1976 L*a*b*]] mieux adapté pour calculer des distances entre couleurs.&lt;br /&gt;
* Liens:&lt;br /&gt;
** la page de [[https://www.lama.univ-savoie.fr/mediawiki/index.php/Transport_optimal_par_coupe_1D_et_transfert_de_couleurs_entre_images Lucas Chardonnet]]&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Color_mapping Transfert de couleur Wikipedia]]&lt;br /&gt;
** [[https://hal.archives-ouvertes.fr/tel-01246096/file/hdr_hal2.pdf Habilitation de N. Papadakis]] (regardez les images plutôt).&lt;br /&gt;
&lt;br /&gt;
== Génération fractale de terrains ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Jacques-Olivier Lachaud&lt;br /&gt;
* Résumé: La génération procédurale de terrain est très utilisée en modélisation 3D et dans les jeux vidéos, afin de générer rapidement des paysages pseudo-réalistes que l&#039;on étoffera ensuite de façon plus manuelle. On propose d&#039;étudier et d&#039;implémenter un algorithme classique, dit &amp;quot;algorithme Diamant-Carré&amp;quot;. Cet algorithme récursif permet de générer une carte d&#039;élévation. Selon les paramètres données, le résultat peut ressembler aux cartes d&#039;altitude de haute montagne ou des collines plus douces.&lt;br /&gt;
{| class=&amp;quot;wikitable alternance center&amp;quot;&lt;br /&gt;
 |+ Génération fractale de terrain par algorithme diamand carré&lt;br /&gt;
 |----&lt;br /&gt;
 ! scope=&amp;quot;col&amp;quot; | Elévations générées !! scope=&amp;quot;col&amp;quot; | Colorisation !! scope=&amp;quot;col&amp;quot; | Visualisation 3D &lt;br /&gt;
 |----&lt;br /&gt;
 | [[Fichier:Diamond-Square_texture.png|200px]] || [[Fichier:Diamond-Square_heightmap.png|200px]] || [[Fichier:Terragen.jpg|200px]]&lt;br /&gt;
 |}&lt;br /&gt;
&lt;br /&gt;
* Objectifs:&lt;br /&gt;
*# Comprendre et implémenter l&#039;algorithme Diamant-Carré&lt;br /&gt;
*# Comprendre comment paramétrer cet algorithme pour qu&#039;il génère des montagnes bien abrupte à haute altitude ou des collines à basse altitude.&lt;br /&gt;
*# Fabriquer une image de couleur/texture qui va associer des couleurs aux altitudes générées (e.g. forcer du bleu sous l&#039;altitude zero, ajouter de la neige, des lacs, de la forêt)&lt;br /&gt;
*# Générer un fichier 3D (par exemple OBJ) à partir de ces deux images (l&#039;image des hauteurs et l&#039;image des couleurs) pour pouvoir faire de beau rendu 3D (sous blender par exemple)&lt;br /&gt;
* Liens:&lt;br /&gt;
** La page [[https://fr.wikipedia.org/wiki/Algorithme_Diamant-Carr%C3%A9 Wikipedia]] de l&#039;algorithme&lt;br /&gt;
** La page [[https://en.wikipedia.org/wiki/Wavefront_.obj_file Wikipedia]] du format OBJ&lt;br /&gt;
&lt;br /&gt;
== Architectures Orientées Micro-Services ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : David Télisson&lt;br /&gt;
* Résumé : Les architectures des applications logicielles distribuées de grandes envergures ont évolué à partir du début des années 2000, d’une application molithique déployée sur un serveur d’application (JEE, TomCat, etc.)  vers des solutions fortement répartis déployées sous formes de services. On parle alors d’architectures orientées services qui se traduisent par le développement et le déploiement de services logiciels interrogeables via des protocoles dédiés (par exemple SOAP) et des API (REST). Cette tendance, corrélée aux nouvelles méthodes de management des projets informatiques (méthodes agiles, intégration continue, DevOps1), s’est accentué ces dernières années et a fait émergé un « nouveau » paradigme : le micro-service. Plusieurs aspects caractérisent un micro-service :&lt;br /&gt;
** fonctionnalité unique&lt;br /&gt;
** flexibilité technologie&lt;br /&gt;
** équipe de développement réduite&lt;br /&gt;
** déploiement ciblé&lt;br /&gt;
** support de la montée en charge (scalabilité)&lt;br /&gt;
** tests facilités et intégrés au processus de développement (TDD2)&lt;br /&gt;
* Objectifs du projet :&lt;br /&gt;
*# Etudier et comprendre les concepts liés aux micro-services (API, conteneurisation, framework, etc.)&lt;br /&gt;
*# Implémentez un PoC (proof of concept) qui démontre qu’une application peut se construire dynamiquement par agrégation de micro-services développés avec des langages différents (Python, JS et Java), déployés sur des plateformes différentes (Django, Node et Glassfish) et disponibles sous formes de conteneurs dans le cloud (Azure)&lt;br /&gt;
*# Livrable attendu : un tutoriel « à la OpenClassRooms » &lt;br /&gt;
* Liens pour démarrer :&lt;br /&gt;
** https://mbaron.developpez.com/cours/microservices/introduction-generalites&lt;br /&gt;
** https://openclassrooms.com/fr/courses/4668056-construisez-des-microservices&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Apprentissage automatique ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Tom Hirschowitz&lt;br /&gt;
* Résumé : L&#039;apprentissage automatique est un ensemble de techniques algorithmiques visant à écrire des programmes qui améliorent leurs performances au cours du temps. Le sujet consiste en une initiation à cette idée par l&#039;exemple, à base de ressources telles que https://colah.github.io/posts/2015-08-Backprop et http://neuralnetworksanddeeplearning.com .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Algorithmes probabilistes/déterministes pour tester la primalité d&#039;un entier  ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Sébastien Tavenas&lt;br /&gt;
* Pouvoir tester si un entier est un nombre premier semble être une brique de base si l&#039;on souhaite faire de l&#039;arithmétique sur un ordinateur. Le crible d&#039;Érathostène enseigné dans les petites classes se montre beaucoup trop lent en pratique. L&#039;algorithme probabiliste utilisé le plus rapide est le test de Fermat. Or, si on regarde les algorithmes des librairies &amp;quot;génériques&amp;quot;, on peut s&#039;apercevoir que la fonction &#039;mpz_probab_prime_p&#039; de la librairie &#039;gmp&#039; sur c++ utilise un test probabiliste de Miller-Rabin, la fonction &#039;isPrime&#039; de la classe &#039;Prime&#039; dans java utilise aussi un test de Miller-Rabin mais qui est déterminisé, alors que la fonction &#039;isprime&#039; de la librairie &#039;sympy&#039; dans python effectue un test de Miller-Rabin si l&#039;entier est plus petit que 2^64 et un test BPSW fort si l&#039;entier est plus grand. Ainsi, une fonction déjà implémentée de test de primalité peut se tromper ou non, être instantanée ou moins. Que dire alors de l&#039;algorithme polynomial déterministe et toujours correct proposé par AKS?                                                                                                                                                &lt;br /&gt;
* Objectifs :                                                                                                                                                                                                             &lt;br /&gt;
*# Comprendre quelques tests de primalité et comment l&#039;aléatoire est utilisé dans ces algorithmes&lt;br /&gt;
*# Comprendre la notion de nombre pseudopremier qui explique, entre autre, quand il vaut mieux utiliser le test de Fermat ou celui de Miller-Rabin                     &lt;br /&gt;
*# Programmer quelques uns des ces tests et les comparer&lt;br /&gt;
*# Essayer de dérandomiser ces tests à l&#039;aide de hitting-sets précalculés&lt;br /&gt;
&lt;br /&gt;
* Liens pour commencer&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Primality_test Tests de primalité]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Base de données orientées Graphe, similarité et modèles prédictifs ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Gérald Cavallini&lt;br /&gt;
* Résumé : Avec l’avènement du BigDatas, dans bien des cas le choix d’un produit, d’un média, d’un voyage ... ne peut plus être direct. Il s’appuie sur des systèmes de recommandations. L’importance financière de ces systèmes est énorme Amazon estime à 30% les ventes supplémentaires dues à son système de recommandation. Ces systèmes s’appuient sur des calculs statistiques et des algorithmes de recherche de similarité. Ces algorithmes expriment la distance entre des objets, ce qui permet par exemple d’identifier des utilisateurs(consommateurs, électeur ...) similaire et de recommander leurs choix.&lt;br /&gt;
* Objectifs :&lt;br /&gt;
*# Mettre en œuvre différents algorithmes de recherche de similarité ( similarité de Jaquard, similarité cosinus...) dans une base de donnée orientées Graphe Neo4j. &lt;br /&gt;
*# Proposer un système de recommandation de film à partir de la base MovieLens (Notation de films par des utilisateurs).&lt;br /&gt;
*# Proposer un une validation du modèle prédictif.&lt;br /&gt;
* Liens pour commencer&lt;br /&gt;
** https://fr.wikipedia.org/wiki/Indice_et_distance_de_Jaccard&lt;br /&gt;
** https://www.machinelearningplus.com/nlp/cosine-similarity/&lt;br /&gt;
** https://neo4j.com/&lt;br /&gt;
** https://movielens.org/&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Neo4j.jpg|400px]]&lt;br /&gt;
&lt;br /&gt;
= Sujets réalisés (2018-2019) =&lt;br /&gt;
&lt;br /&gt;
* [[Transport optimal par coupe 1D et transfert de couleurs entre images]] (Lucas CHARDONNET)&lt;br /&gt;
* [[Génération et résolution de labyrinthes II]] (Romain THEODET)&lt;br /&gt;
* [[Rest &amp;amp; Pub-Sub : protocole hybride pour l&#039;IoT]] (Ewan RAKOTOANOSY)&lt;br /&gt;
* [[La suite de Conway et la classification périodique des &amp;quot;éléments&amp;quot;]] (Yohann THEPAUT)&lt;br /&gt;
* [[Initiation à la démonstration sur ordinateur et certification de logiciel]] (Loïc DORNET)&lt;br /&gt;
* [[Dilemme du prisonnier]] (Christophe CARMAGNAC)&lt;br /&gt;
&lt;br /&gt;
= Sujets proposés (2018-2019) =&lt;br /&gt;
&lt;br /&gt;
* Transport optimal par coupe 1D et transfert de couleurs entre images&lt;br /&gt;
* Génération et résolution de labyrinthes II&lt;br /&gt;
* REST + Pub/Sub : protocole hybride pour l’IoT&lt;br /&gt;
* La suite de Conway et la classification périodique des &amp;quot;éléments&amp;quot;&lt;br /&gt;
* Initiation à la démonstration sur ordinateur et certification de logiciel&lt;br /&gt;
* Algorithmes probabilistes/déterministes pour tester la primalité d&#039;un entier&lt;br /&gt;
* Dilemme du prisonnier&lt;br /&gt;
&lt;br /&gt;
== Transport optimal par coupe 1D et transfert de couleurs entre images ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Jacques-Olivier Lachaud&lt;br /&gt;
* Résumé: Le transfert de couleurs de l&#039;image Y vers l&#039;image X consiste à repeindre &amp;quot;au mieux&amp;quot; l&#039;image X avec la palette de couleurs de l&#039;image Y. L&#039;image repeinte X&#039; a alors les mêmes couleurs que l&#039;image Y (mais les pixels ne sont pas répartis pareils). Voir l&#039;exemple de transfert ci-dessous. Il existe plusieurs techniques de transfert de couleurs, mais nous étudierons une technique basée sur le transport optimal. Comme c&#039;est un problème assez difficile dans le cas général, nous verrons une variante dite par coupe 1D, qui simplifiera considérablement le problème de transport.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Ex-transfert-couleur-OT.png]]&lt;br /&gt;
&lt;br /&gt;
* Objectifs: &lt;br /&gt;
*# comprendre ce qu&#039;est une image niveaux couleur, et ce qu&#039;on appelle le transfert de couleurs.&lt;br /&gt;
*# comprendre le principe du transport optimal (discret).&lt;br /&gt;
*# comprendre et décrire le principe du transport optimal par coupe 1D, et comment se fait le calcul du meilleur transport dans ce cas.&lt;br /&gt;
*# Coder un programme de transfert de couleur, qui prend deux images couleurs et réalise le transfert de couleurs.&lt;br /&gt;
*# On pourra ensuite réfléchir à quelques améliorations simples (espace couleur YUV, grouper les pixels).&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** Le vrai &amp;quot;Transport Optimal&amp;quot; est vite très mathématique (ce sont des mesures qui sont transportées), mais on peut l&#039;aborder beaucoup plus simplement dans le cas discret (un nombre fini de valeurs) comme une simple assignation entre deux ensembles.&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Color_mapping Transfert de couleur Wikipedia]]&lt;br /&gt;
** [[https://hal.archives-ouvertes.fr/tel-01246096/file/hdr_hal2.pdf Habilitation de N. Papadakis]] (regardez les images plutôt).&lt;br /&gt;
&lt;br /&gt;
== Génération et résolution de labyrinthes II ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: François Boussion&lt;br /&gt;
* Résumé: On veut générer des labyrinthes aussi grands et complexes que possible, avec des murs dans une grille carré voire d&#039;autres domaines. Comment faire pour qu&#039;il y ait toujours un chemin de l&#039;entrée à la sortie ? Comment faire pour qu&#039;il n&#039;y ait qu&#039;un chemin ? Ensuite, comment trouver la sortie quand on est perdu dans le labyrinthe.&lt;br /&gt;
* Objectifs:&lt;br /&gt;
*# Comprendre comment représenter un labyrinthe avec une structure de données simple&lt;br /&gt;
*# Voir le lien avec la théorie des graphes et voir que le problème se résout de la même façon pour des grilles carrées, hexagonales ou autres.&lt;br /&gt;
*# Comprendre l&#039;algorithme d&#039;arbre couvrant minimum&lt;br /&gt;
*# Comprendre le principe du parcours en profondeur et de la récursivité&lt;br /&gt;
* Pour aller plus loin&lt;br /&gt;
*# coder la génération d&#039;un labyrinthe et sa visualisation&lt;br /&gt;
*# introduire des poids pour varier le labyrinthe&lt;br /&gt;
*# comment faire un labyrinthe sur grille hexagonale avec des tableaux.&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Mod%C3%A9lisation_math%C3%A9matique_d%27un_labyrinthe Wikipedia]]&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Maze_generation_algorithm Version anglaise plus complète]]&lt;br /&gt;
&lt;br /&gt;
== REST + Pub/Sub : protocole hybride pour l’IoT ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: David Télisson&lt;br /&gt;
* Résumé: L’avènement de l’Internet des Objets (IoT) depuis une dizaine d’années a fait apparaitre des problématiques propres aux protocoles de communications liées à ces objets. En effet, l’échange de données dans ce contexte nécessite de tenir compte (au moins) des paramètres suivant : &lt;br /&gt;
*# Autonomie énergétique souvent limitée&lt;br /&gt;
*# Faible puissance des processeurs et taille réduite de la mémoire &lt;br /&gt;
*# Disponibilité « aléatoire » de l’accès aux réseaux de communication &lt;br /&gt;
&lt;br /&gt;
De nombreux protocoles cohabitent et la littérature du domaine foisonne d’exemples autour des réseaux dédiées (LORA, Sigfox, etc.) et des protocoles applicatifs (OPC-UA, MQTT, CoaP, XMPP) mais force est de constater que dans la réalité, ces solutions ne répondent pas toujours aux besoins des concepteurs qui leurs préfèrent encore le protocole HTTP. Celui-ci offre l’avantage d’implémenter un protocole applicatif (REST) en même temps qu’un protocole de transport de haut niveau (TCP/IP) permettant de passer les pare-feu. Cependant, la version actuel d’HTTP ne répond pas vraiment aux critères énoncés précédemment.&lt;br /&gt;
Depuis quelques années émerge donc l’idée d’enrichir HTTP pour créer un protocole hybride qui mêlerait les avantages de REST avec ceux proposés par les mécanismes de type Publish/Subscribe (MQTT, AMQP, JMS, etc.). En attendant cette éventuelle évolution, peut-on envisager de mettre en place un mécanisme de type Pub/Sub avec le protocole Websocket au-dessus d’HTTP ?&lt;br /&gt;
&lt;br /&gt;
* Objectifs:&lt;br /&gt;
*# Etudier et faire une synthèse des deux approches : REST et Pub/Sub &lt;br /&gt;
*# Implémentez un PoC (proof of concept) d’une solution hybride qui met en œuvre un mécanisme de Pub/Sub sur Websocket. .&lt;br /&gt;
*# Présenter un protocole de test pour valider ou invalider cette solution&lt;br /&gt;
&lt;br /&gt;
* Liens pour démarrer :&lt;br /&gt;
** https://nsrc.org/workshops/2018/apricot/iot/presentations/mqttvsrest_v4.pdf&lt;br /&gt;
** http://www.tigli.fr/lib/exe/fetch.php?media=cours:tutorial_mqtt_mit_2015_2016.pdf&lt;br /&gt;
** https://openclassrooms.com/fr/courses/3449001-utilisez-des-api-rest-dans-vos-projets-web&lt;br /&gt;
** http://www.lirmm.fr/~tibermacin/ens/ws/expose.pdf&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== La suite de Conway et la classification périodique des &amp;quot;éléments&amp;quot; ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Pierre Hyvernat&lt;br /&gt;
* La suite de Conway est la suite suivante : 1 ; 11 ; 21 ; 1211 ; 111221 ; ... Chaque terme est obtenu en &amp;quot;lisant&amp;quot; le terme précédent.                                                                                                                                                            &lt;br /&gt;
** &amp;quot;1&amp;quot; : un &amp;quot;1&amp;quot; -&amp;gt; 11&lt;br /&gt;
** &amp;quot;11&amp;quot; : deux &amp;quot;1&amp;quot; -&amp;gt; 21&lt;br /&gt;
** &amp;quot;21&amp;quot; : un &amp;quot;2&amp;quot;, un &amp;quot;1&amp;quot; -&amp;gt; 1211&lt;br /&gt;
** &amp;quot;1211&amp;quot; : un &amp;quot;1&amp;quot;, un &amp;quot;2&amp;quot;, deux &amp;quot;1&amp;quot; -&amp;gt; 111221&lt;br /&gt;
** etc.&lt;br /&gt;
Cette suite possède des propriétés étonantes données par le théorème &amp;quot;chimique&amp;quot;, le théorème &amp;quot;arithmétique&amp;quot; et le théorème &amp;quot;cosmologique&amp;quot;.&lt;br /&gt;
* Objectifs :                                                                                                                                                                                                                  &lt;br /&gt;
*# comprendre les énoncés de ces théorèmes, et l&#039;idée de la preuve du premier.                    &lt;br /&gt;
*# programmer la suite de Conway pour retrouver la classification des &amp;quot;atomes&amp;quot;&lt;br /&gt;
*# écrire un programme pour calculer expérimentalement une approximation de la constante &amp;quot;lambda&amp;quot; ainsi que des fréquences respectives des différents atomes.&lt;br /&gt;
*# écrire un programme pour calculer la suite de Robinson, une variante plus simple de la suite de Conway&lt;br /&gt;
&lt;br /&gt;
* Liens pour commencer&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Suite_de_Conway suite de Conway]]&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Suite_de_Robinson suite de Robinson]]&lt;br /&gt;
&lt;br /&gt;
== [[Initiation à la démonstration sur ordinateur et certification de logiciel]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Tom Hirschowitz&lt;br /&gt;
* Résumé: [[https://coq.inria.fr Coq]] est un logiciel de mathématiques sur ordinateur, grâce auquel des programmes élaborés ont pu être certifiés ces dernières années.&lt;br /&gt;
* Objectifs: &lt;br /&gt;
*# prendre en main le logiciel [[https://coq.inria.fr Coq]] de démonstration sur ordinateur,&lt;br /&gt;
*# programmer certaines démonstrations basiques en Coq,&lt;br /&gt;
*# suivre le début du cours [[https://www.cis.upenn.edu/~bcpierce/sf Software Foundations]],&lt;br /&gt;
* Pour aller plus loin : Software Foundations est un cours assez long et très bien fait, il y aura suffisamment à faire. Eventuellement, selon l&#039;intérêt de l&#039;étudiant, étude des fondements mathématiques de Coq.&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://www.cis.upenn.edu/~bcpierce/sf Software Foundations]]&lt;br /&gt;
** [[https://coq.inria.fr Coq]]&lt;br /&gt;
&lt;br /&gt;
== Algorithmes probabilistes/déterministes pour tester la primalité d&#039;un entier  ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Sébastien Tavenas&lt;br /&gt;
* Pouvoir tester si un entier est un nombre premier semble être une brique de base si l&#039;on souhaite faire de l&#039;arithmétique sur un ordinateur. Le crible d&#039;Érathostène enseigné dans les petites classes se montre beaucoup trop lent en pratique. L&#039;algorithme probabiliste utilisé le plus rapide est le test de Fermat. Or, si on regarde les algorithmes des librairies &amp;quot;génériques&amp;quot;, on peut s&#039;apercevoir que la fonction &#039;mpz_probab_prime_p&#039; de la librairie &#039;gmp&#039; sur c++ utilise un test probabiliste de Miller-Rabin, la fonction &#039;isPrime&#039; de la classe &#039;Prime&#039; dans java utilise aussi un test de Miller-Rabin mais qui est déterminisé, alors que la fonction &#039;isprime&#039; de la librairie &#039;sympy&#039; dans python effectue un test de Miller-Rabin si l&#039;entier est plus petit que 2^64 et un test BPSW fort si l&#039;entier est plus grand. Ainsi, une fonction déjà implémentée de test de primalité peut se tromper ou non, être instantanée ou moins. Que dire alors de l&#039;algorithme polynomial déterministe et toujours correct proposé par AKS?                                                                                                                                                &lt;br /&gt;
* Objectifs :                                                                                                                                                                                                             &lt;br /&gt;
*# Comprendre quelques tests de primalité et comment l&#039;aléatoire est utilisé dans ces algorithmes&lt;br /&gt;
*# Comprendre la notion de nombre pseudopremier qui explique, entre autre, quand il vaut mieux utiliser le test de Fermat ou celui de Miller-Rabin                     &lt;br /&gt;
*# Programmer quelques uns des ces tests et les comparer&lt;br /&gt;
*# Essayer de dérandomiser ces tests à l&#039;aide de hitting-sets précalculés&lt;br /&gt;
&lt;br /&gt;
* Liens pour commencer&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Primality_test Tests de primalité]]&lt;br /&gt;
&lt;br /&gt;
== Dilemme du prisonnier ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Gerald Cavallini&lt;br /&gt;
* Résumé: Le dilemme du prisonnier caractérise en théorie des jeux une situation où deux joueurs auraient&lt;br /&gt;
intérêt à coopérer, mais où, en l’absence de communication entre les deux joueurs, chacun choisira&lt;br /&gt;
de trahir l&#039;autre si le jeu n&#039;est joué qu&#039;une fois.&lt;br /&gt;
&lt;br /&gt;
On peut informatiquement modéliser ce dilemme à l’aide de matrices de gains et conserver la&lt;br /&gt;
mémoire des choix de l’adversaire. Ce modèle appliqué à un grand nombre d’individus peut être&lt;br /&gt;
utilisé pour comprendre l’émergence de stratégies stables dans l’économie, l’écologie, l’évolution&lt;br /&gt;
des espèces ...&lt;br /&gt;
&lt;br /&gt;
On peut visualiser spatialement les interactions entre individus en les représentants par des pixels et&lt;br /&gt;
en leurs associant une couleur en fonction de leurs stratégies.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Dilemme.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* Objectifs&lt;br /&gt;
*# Comprendre le dilemme du prisonnier&lt;br /&gt;
*# Comprendre la notion de stratégie&lt;br /&gt;
*# Penser un modèle spatiale pour « opposer » des individus qui appliquent des stratégies différentes&lt;br /&gt;
*# Développer une interface pour visualiser dans le temps l’évolution d’une population d’individus adoptants des stratégies différentes.&lt;br /&gt;
&lt;br /&gt;
* Lien :&lt;br /&gt;
*# [https://fr.wikipedia.org/wiki/Dilemme_du_prisonnier Dilemme du prisonnier Wikipedia]&lt;br /&gt;
*# [http://cormas.cirad.fr/fr/applica/dps.htm Site spécifique]&lt;br /&gt;
&lt;br /&gt;
= Sujets réalisés (2017-2018) =&lt;br /&gt;
&lt;br /&gt;
* [[VISI201 Analyse syntaxique (Tristan Porteries, 2018)]]&lt;br /&gt;
* [[Segmentation d&#039;image par détection de contours et algorithme &amp;quot;ligne de partage des eaux&amp;quot;]] (Nils Ruet, 2018)&lt;br /&gt;
* [[Fouille de données textuelles à partir des &amp;quot;Exercices de style&amp;quot; de R. Queneau]] (Rémi Bouvier, 2018)&lt;br /&gt;
* [[Transformées en distance, diagramme de Voronoi et applications en geometry processing]] (Robin Wagner, 2018)&lt;br /&gt;
* [[Pavages de Penrose]] (Brunelle Cordier-Pierre-Bès, 2018)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
= Sujets proposés (2017-2018) =&lt;br /&gt;
&lt;br /&gt;
* Segmentation d&#039;image par détection de contours et algorithme &amp;quot;ligne de partage des eaux&amp;quot;&lt;br /&gt;
* Initiation à la démonstration sur ordinateur et certification de logiciel&lt;br /&gt;
* Fouille de données textuelles à partir des &amp;quot;Exercices de style&amp;quot; de R. Queneau&lt;br /&gt;
* Transformées en distance, diagramme de Voronoi et applications en geometry processing&lt;br /&gt;
* Pavages de Penrose&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== [[Segmentation d&#039;image par détection de contours et algorithme &amp;quot;ligne de partage des eaux&amp;quot;]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Jacques-Olivier Lachaud&lt;br /&gt;
* Résumé: La segmentation d&#039;image vise à identifier les régions d&#039;intérêt dans une image. Typiquement, une région d&#039;intérêt est une zone de l&#039;image plutôt homogène (les pixels ont des valeurs proches) et le contour entre deux régions d&#039;intérêt est tracé là où les valeurs subissent de fortes variations. La méthode de segmentation proposée ici suit ce principe en enchaînant deux calculs: (1) un premier traitement calcule une image &amp;quot;gradient&amp;quot; et fabrique une image dont les valeurs élevées correspondent à des zones de fortes variations, (2) le deuxième algorithme voit cette image comme un relief 3D et identifie ses bassins hydrographiques. Cette identification des lignes de partage des eaux permet de découper l&#039;image en ses zones d&#039;intérêt.&lt;br /&gt;
* Objectifs: &lt;br /&gt;
*# comprendre ce qu&#039;est une image niveaux de gris ou couleur, ce qu&#039;est le gradient d&#039;une image et ce qu&#039;on appelle segmentation d&#039;image.&lt;br /&gt;
*# décrire un algorithme de calcul du gradient d&#039;une image, e.g. le filtre de Sobel, voire les convolutions par dérivées de Gaussienne.&lt;br /&gt;
*# décrire le principe de ligne de partage des eaux (&amp;quot;watershed&amp;quot; en anglais), ses différentes définitions équivalentes, et les différents types d&#039;algorithmes pour la calculer.&lt;br /&gt;
*# Coder un programme de segmentation d&#039;image, qui prend une image (niveaux de gris) en entrée, calcule son gradient, et extrait les bassins de sa ligne de partage des eaux.&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Watershed_(image_processing) Watershed Wikipedia]]&lt;br /&gt;
** Luc Vincent and Pierre Soille. Watersheds in digital spaces: an efficient algorithm based on immersion simulations. In IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 13, Num. 6 (1991), pages 583–598 [[https://pdfs.semanticscholar.org/a381/9dda9a5f00dbb8cd3413ca7422e37a0d5794.pdf PDF]]&lt;br /&gt;
&lt;br /&gt;
== [[Initiation à la démonstration sur ordinateur et certification de logiciel]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Tom Hirschowitz&lt;br /&gt;
* Résumé: [[https://coq.inria.fr Coq]] est un logiciel de mathématiques sur ordinateur, grâce auquel des programmes élaborés ont pu être certifiés ces dernières années.&lt;br /&gt;
* Objectifs: &lt;br /&gt;
*# prendre en main le logiciel [[https://coq.inria.fr Coq]] de démonstration sur ordinateur,&lt;br /&gt;
*# programmer certaines démonstrations basiques en Coq,&lt;br /&gt;
*# suivre le début du cours [[https://www.cis.upenn.edu/~bcpierce/sf Software Foundations]],&lt;br /&gt;
* Pour aller plus loin : Software Foundations est un cours assez long et très bien fait, il y aura suffisamment à faire. Eventuellement, selon l&#039;intérêt de l&#039;étudiant, étude des fondements mathématiques de Coq.&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://www.cis.upenn.edu/~bcpierce/sf Software Foundations]]&lt;br /&gt;
** [[https://coq.inria.fr Coq]]&lt;br /&gt;
&lt;br /&gt;
== [[Fouille de données textuelles à partir des &amp;quot;Exercices de style&amp;quot; de R. Queneau]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Laurent Vuillon&lt;br /&gt;
* Résumé: L&#039;idée de ce projet est de se familiariser avec les techniques de fouille de données textuelles à partir des &amp;quot;Exercices de style&amp;quot; de R. Queneau (https://fr.wikipedia.org/wiki/Exercices_de_style). On cherchera à comprendre la structure du vocabulaire du corpus de textes, à utiliser les techniques de TF/IDF pour extraire les mots significatifs du corpus puis à tester les techniques de LDA (Allocation de Dirichlet latente) pour extraire automatiquement les thématiques du corpus afin de construire des regroupements par thème. On pourra également proposer des visualisations des résultats afin de rendre accessible visuellement l&#039;analyse de données produite sur le corpus de documents.&lt;br /&gt;
* Objectifs: Introduction à la fouille de données au travers d&#039;un cas pratique&lt;br /&gt;
* Pour aller plus loin&lt;br /&gt;
** http://blogperso.univ-rennes1.fr/stephane.tuffery/&lt;br /&gt;
** http://www.editionstechnip.com/en/catalogue-detail/1005/data-mining-et-statistique-decisionnelle.html&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** https://fr.wikipedia.org/wiki/Exploration_de_donn%C3%A9es&lt;br /&gt;
** https://fr.wikipedia.org/wiki/TF-IDF&lt;br /&gt;
** &amp;quot;Recherche d&#039;information : applications, modèles et algorithmes; Data mining, décisionnel et big data&amp;quot; de Amini et Gaussier aux éditions Eyrolles.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== [[Transformées en distance, diagramme de Voronoi et applications en geometry processing]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Jacques-Olivier Lachaud&lt;br /&gt;
* Résumé: Les nuages de points constituent une source de données géométriques importantes (cf LIDAR scanner, 3D scanner) et qui permet de construire des modèles géométriques 3D d&#039;objets réels. La difficulté est de transformer ces nuages de points en des surfaces (souvent des surfaces triangulées, c&#039;est-à-dire des triangles collés entre eux). Un outil essentiel dans ce processus est la transformée en distance, le diagramme de Voronoi (et son dual la triangulation de Delaunay). A partir de ces outils, des algorithmes existent pour reconstruire les surfaces, estimer la géométrie du nuage de point (sa normale par exemple), etc.&lt;br /&gt;
* Objectifs: &lt;br /&gt;
*# Comprendre ce qu&#039;est une distance, une transformée en distance, et un diagramme de Voronoi. Comprendre ce qu&#039;est la stabilité d&#039;une fonction.&lt;br /&gt;
*# Identifier les propriétés des diagrammes de Voronoi, de leur dual la triangulation de Delaunay, et comprendre leurs variantes comme les diagrammes de puissance&lt;br /&gt;
*# Identifier le lien avec l&#039;axe médian et les squelettes&lt;br /&gt;
*# Décrire les principaux algorithmes de calcul des transformées en distance et du diagramme de Voronoi, pour des nuages de point quelconques ou pour des nuages de points à coordonnées entières.&lt;br /&gt;
*# Présenter un algorithme de reconstruction de surface utilisant le diagramme de Voronoi&lt;br /&gt;
*# Coder un algorithme de calcul du diagramme de Voronoi et, si le temps le permet, un algorithme de reconstruction de surface.&lt;br /&gt;
&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Voronoi_diagram Diagramme de Voronoi Wikipedia]]&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Distance_transform Transformée en distance Wikipedia]]&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Topological_skeleton Squelette Wikipedia]]&lt;br /&gt;
** [[http://dgtal.org/doc/nightly/moduleVolumetric.html Transformées discrètes en distance DGtal]]&lt;br /&gt;
&lt;br /&gt;
== [[Pavages de Penrose]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Pierre Hyvernat&lt;br /&gt;
* Résumé : le &amp;quot;cerf-volant&amp;quot; et la &amp;quot;fléchette&amp;quot; de Penrose sont deux tuiles qui permettent de recouvrir le plan, mais uniquement de manière non-périodique. Autrement dit, les pavages correspondants ne sont pas obtenus en répétant un même motif de     manière régulière. A cause de ceci, il n&#039;est pas évident de générer un tel      pavage. &lt;br /&gt;
&lt;br /&gt;
[[Fichier:P2.png]]&lt;br /&gt;
&lt;br /&gt;
* Objectifs&lt;br /&gt;
*# comprendre les notion de pavage périodique, non périodique et apériodique,&lt;br /&gt;
*# comprendre la méthode &amp;quot;inflation / déflation&amp;quot; pour générer des pavages de    Penrose des différents types,                                                   &lt;br /&gt;
*# comprendre le lien entre les 2 (ou 3) types de pavage de Penrose             &lt;br /&gt;
*# écrire un programme permettant de générer de tels pavages : avec la méthode  &amp;quot;inflation / déflation&amp;quot; et avec la méthode &amp;quot;grille de de Bruijn&amp;quot;&lt;br /&gt;
*# utiliser ces méthodes pour générer d&#039;autres types de pavages apériodique.&lt;br /&gt;
&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Pavage_de_Penrose pavage de Penrose (wikipedia]]&lt;br /&gt;
** [[https://www.maa.org/sites/default/files/pdf/pubs/focus/Gardner_PenroseTilings1-1977.pdf Penrose Tiling (Marting Gardner, en anglais)]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== [[Algorithmes d&#039;analyse syntaxique]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Pierre Hyvernat&lt;br /&gt;
&lt;br /&gt;
* Résumé : le code source d&#039;un programme, d&#039;un fichier de configuration d&#039;un serveur de base de données ou le code d&#039;une page web sont des données &#039;&#039;textuelles&#039;&#039; et &#039;&#039;structurées&#039;&#039;. Il est possible de définir exactement quelles données sont correctes, et quelle est leur signification. (Cela est beaucoup plus difficile pour des textes en langue naturelle par exemple.) En ce sens, il est possible de lire, d&#039;interpréter ces données à l&#039;aide d&#039;un programme. On parle &#039;&#039;d&#039;analyseur syntaxique&#039;&#039; ou de &#039;&#039;parseur&#039;&#039;. Il existe de nombreux outils pour faire ça automatiquement, mais il est parfois important (et toujours intéressant) de comprendre les mécanismes correspondant. C&#039;est ce que ce stage propose de faire.&lt;br /&gt;
&lt;br /&gt;
* Objectifs :&lt;br /&gt;
*# étudier la formalisation du problème à travers la notion de &#039;&#039;langage&#039;&#039; et les premiers étages de la hiérachie de Chomsky (langages réguliers et grammaires hors contexte).&lt;br /&gt;
*# comprendre le lien entre les langages et les automates (automates finis / automates à pile)&lt;br /&gt;
*# implémenter un parseur &amp;quot;from scratch&amp;quot; et le tester sur des petits exemples simples, &amp;quot;à la main&amp;quot;, soit en calculant &amp;quot;à la volée&amp;quot; la sémantique d&#039;un langage, soit en produisant des &amp;quot;arbres de syntaxe abstraits&amp;quot;, qui pourront être analysés par la suite,&lt;br /&gt;
*# comprendre les restrictions souvent imposées sur les grammaires afin d&#039;améliorer l&#039;efficacité du parseur (&#039;&#039;LL*(k)&#039;&#039;, &#039;&#039;LR&#039;&#039;, etc.)&lt;br /&gt;
*# à partir de là, de nombreuses pistes sont ouvertes :&lt;br /&gt;
*#* essayer d&#039;écrire un petit outils qui puisse lire une grammaire, et générer un parseur pour cette grammaire,&lt;br /&gt;
*#* comparer l&#039;approche &amp;quot;automate&amp;quot; avec l&#039;approche &amp;quot;combinateurs&amp;quot; et &amp;quot;parseur récursifs&amp;quot;&lt;br /&gt;
*#* améliorer l&#039;efficacité des parseurs produits&lt;br /&gt;
*#* ajouter des fonctionnalités,&lt;br /&gt;
*#* ...&lt;br /&gt;
&lt;br /&gt;
* Liens pour démarrer :&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Parsing page wikipedia &amp;quot;parsing&amp;quot;]]&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Recursive_descent_parser page wikipedia &amp;quot;recursive descent parser&amp;quot;]]&lt;br /&gt;
** Le livre référence sur le parsing est probablement &amp;quot;Compilers: Principles, Techniques, and Tools&amp;quot; de Aho, Sethi et Ullman (le &amp;quot;dragon book&amp;quot;)&lt;br /&gt;
** [[https://web.stanford.edu/class/archive/cs/cs143/cs143.1128/ exemples de notes cours de compilation]]&lt;br /&gt;
&lt;br /&gt;
= Sujets réalisés (2016-2017) =&lt;br /&gt;
&lt;br /&gt;
* [[Algorithme de rendu de scène 3D par Z-buffer]]&lt;br /&gt;
* [[Traitement d&#039;image]]&lt;br /&gt;
* [[Nim et la théorie des jeux impartiaux]]&lt;br /&gt;
* [[Calculabilité et modèles de calcul]]&lt;br /&gt;
* [[Génération et résolution de labyrinthes]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
= Sujets proposés (2016-2017) =&lt;br /&gt;
&lt;br /&gt;
== [[Algorithme de rendu de scène 3D par Z-buffer]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Jacques-Olivier Lachaud&lt;br /&gt;
* Résumé: Le Z-buffer est un algorithme classique de rendu de scène 3D. C&#039;est celui (avec quelques variantes) qui est implémenté dans nos cartes graphiques 3D et qui permet de visualiser des scènes extrêmement complexes en temps réel (typiquement 24 image/s).&lt;br /&gt;
* Objectifs: &lt;br /&gt;
*# décrire le principe de la projection 3D vers 2D&lt;br /&gt;
*# décrire la rastérisation des triangles sur une image en pixel&lt;br /&gt;
*# expliquer le principe du Z-buffer qui permet de gérer le fait que certains objets sont cachés par d&#039;autres&lt;br /&gt;
*# expliquer comment les couleurs sont calculées par pixel&lt;br /&gt;
*# indiquer les qualités et limitations de l&#039;algorithme&lt;br /&gt;
* Pour aller plus loin&lt;br /&gt;
*# mettre du code démo (WebGL) avec quelques explications sur le pipeline graphique OpenGL&lt;br /&gt;
*# expliquer comment on peut utiliser cet algorithme pour calculer des ombres (shadow map)&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Z-buffer Wikipedia]]&lt;br /&gt;
** [[https://www.scratchapixel.com/lessons/3d-basic-rendering/rasterization-practical-implementation/overview-rasterization-algorithm Scratch a pixel]]&lt;br /&gt;
&lt;br /&gt;
== [[Traitement d&#039;image]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Jacques-Olivier Lachaud&lt;br /&gt;
* Résumé: Le traitement d&#039;image rassemble tous les algorithmes utilisés pour transformer les images, les améliorer, éliminer certaines perturbations, augmenter ou diminuer le contraste, changer les couleurs vers d&#039;autres couleurs, éliminer le flou ou les yeux rouges, faire du cartooning pour un rendu moins photo-réaliste, etc.&lt;br /&gt;
* Objectifs:&lt;br /&gt;
*# identifier les grandes familles de traitement: restauration, égalisation, élimination du flou de déplacement, segmentation, etc&lt;br /&gt;
*# identifier les grandes familles de techniques: filtrage spatial, filtrage fréquentiel, optimisation, etc&lt;br /&gt;
*# comprendre les points communs et différences entre le traitement des images noir et blanc et le traitement des images couleurs.&lt;br /&gt;
*# choisir un ou deux algorithmes de traitement et les expliquer en détails&lt;br /&gt;
* Pour aller plus loin&lt;br /&gt;
*# Coder un algorithme de traitement d&#039;image simple (e.g, un filtrage médian, ou un algo qui transporte les couleurs d&#039;une photo vers une autre photo)&lt;br /&gt;
&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Traitement_d%27images Wikipedia]]&lt;br /&gt;
** [[http://www.ipol.im/ Image Processing on line]] (permet de tester en ligne des algorithmes sur vos images)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== [[Nim et la théorie des jeux impartiaux]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Pierre Hyvernat&lt;br /&gt;
&lt;br /&gt;
* Étudiant : Luca Chapelle&lt;br /&gt;
&lt;br /&gt;
* Le jeu de Nim (aussi appelé jeu des allumettes) est l&#039;un des premiers jeux ayant été analysé mathématiquement (par Charles Bouton en 1901). Les stratégies gagnantes peuvent être calculées en utilisant le développement en base 2 des nombres, et l&#039;opération d&#039;&amp;quot;addition de Nim&amp;quot; (XOR). La théorie de ce type de jeux (jeux &amp;quot;impartiaux&amp;quot;) est assez simple, mais de nombreuses instances de jeux sont encore non résolues.&lt;br /&gt;
* Objectifs:&lt;br /&gt;
*# comprendre la théorie du jeu de Nim (et la programmer)&lt;br /&gt;
*# comprendre le théorème de Sprague Grundy qui montre que tout jeu impartial est équivalent à un jeu de nim&lt;br /&gt;
*# regarder quelques autres exemples de tels jeux : jeu de Nim déguisés, ou jeux véritablement différents&lt;br /&gt;
*# programmer une version naịve de recherche de stratégie basée sur le théorème de Sprague-Grundy pour quelques jeux&lt;br /&gt;
&lt;br /&gt;
* Liens pour commencer&lt;br /&gt;
** [https://fr.wikipedia.org/wiki/Jeux_de_Nim jeu de Nim]&lt;br /&gt;
** [https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_Sprague-Grundy théorème de Sprague Grundy]&lt;br /&gt;
** [https://fr.wikipedia.org/wiki/Jeu_de_Grundy jeu de Grundy]&lt;br /&gt;
&lt;br /&gt;
== La suite de Conway et la classification périodique des &amp;quot;éléments&amp;quot; ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur : Pierre Hyvernat&lt;br /&gt;
* La suite de Conway est la suite suivante : 1 ; 11 ; 21 ; 1211 ; 111221 ; ... Chaque terme est obtenu en &amp;quot;lisant&amp;quot; le terme précédent.                                                                                                                                                            &lt;br /&gt;
** &amp;quot;1&amp;quot; : un &amp;quot;1&amp;quot; -&amp;gt; 11&lt;br /&gt;
** &amp;quot;11&amp;quot; : deux &amp;quot;1&amp;quot; -&amp;gt; 21&lt;br /&gt;
** &amp;quot;21&amp;quot; : un &amp;quot;2&amp;quot;, un &amp;quot;1&amp;quot; -&amp;gt; 1211&lt;br /&gt;
** &amp;quot;1211&amp;quot; : un &amp;quot;1&amp;quot;, un &amp;quot;2&amp;quot;, deux &amp;quot;1&amp;quot; -&amp;gt; 111221&lt;br /&gt;
** etc.&lt;br /&gt;
Cette suite possède des propriétés étonantes données par le théorème &amp;quot;chimique&amp;quot;, le théorème &amp;quot;arithmétique&amp;quot; et le théorème &amp;quot;cosmologique&amp;quot;.&lt;br /&gt;
* Objectifs :                                                                                                                                                                                                                  &lt;br /&gt;
*# comprendre les énoncés de ces théorèmes, et l&#039;idée de la preuve du premier.                    &lt;br /&gt;
*# programmer la suite de Conway pour retrouver la classification des &amp;quot;atomes&amp;quot;&lt;br /&gt;
*# écrire un programme pour calculer expérimentalement une approximation de la constante &amp;quot;lambda&amp;quot; ainsi que des fréquences respectives des différents atomes.&lt;br /&gt;
*# écrire un programme pour calculer la suite de Robinson, une variante plus simple de la suite de Conway&lt;br /&gt;
&lt;br /&gt;
* Liens pour commencer&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Suite_de_Conway suite de Conway]]&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Suite_de_Robinson suite de Robinson]]&lt;br /&gt;
&lt;br /&gt;
== Initiation à la démonstration sur ordinateur et certification de logiciel ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Tom Hirschowitz&lt;br /&gt;
* Résumé: [[https://coq.inria.fr Coq]] est un logiciel de mathématiques sur ordinateur, grâce auquel des programmes élaborés ont pu être certifiés ces dernières années.&lt;br /&gt;
* Objectifs: &lt;br /&gt;
*# prendre en main le logiciel [[https://coq.inria.fr Coq]] de démonstration sur ordinateur,&lt;br /&gt;
*# programmer certaines démonstrations basiques en Coq,&lt;br /&gt;
*# suivre le début du cours [[https://www.cis.upenn.edu/~bcpierce/sf Software Foundations]],&lt;br /&gt;
* Pour aller plus loin : Software Foundations est un cours assez long et très bien fait, il y aura suffisamment à faire. Eventuellement, selon l&#039;intérêt de l&#039;étudiant, étude des fondements mathématiques de Coq.&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://www.cis.upenn.edu/~bcpierce/sf Software Foundations]]&lt;br /&gt;
** [[https://coq.inria.fr Coq]]&lt;br /&gt;
&lt;br /&gt;
== [[Calculabilité et modèles de calcul]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Rodolphe Lepigre&lt;br /&gt;
* Résumé: Une fonction f sur l&#039;ensemble des entiers naturels est dite calculable s&#039;il existe une procedure effective (ou un algorithme) qui permet, étant donné un entier n, de calculer f(n) en temps fini. Il existe divers modèles de calcul qui permettent de représenter toutes les fonctions calculables : machines de Turing, λ-calcul, automates cellulaires, ...&lt;br /&gt;
* Objectifs:&lt;br /&gt;
*# comprendre la notion de fonction calculable,&lt;br /&gt;
*# comparer l&#039;ensemble des fonctions à l&#039;ensemble des fonctions calculables,&lt;br /&gt;
*# regarder et comparer quelque modèles de calcul,&lt;br /&gt;
*# programmer un modèle de calcul et comprendre les limitations pratiques.&lt;br /&gt;
&lt;br /&gt;
* Liens pour commencer:&lt;br /&gt;
** https://fr.wikipedia.org/wiki/Calculabilité&lt;br /&gt;
** https://fr.wikipedia.org/wiki/Machine_de_Turing&lt;br /&gt;
** https://fr.wikipedia.org/wiki/Lambda-calcul&lt;br /&gt;
** https://fr.wikipedia.org/wiki/Jeu_de_la_vie&lt;br /&gt;
&lt;br /&gt;
== [[Génération et résolution de labyrinthes]] ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: &amp;lt;strike&amp;gt;Jacques-Olivier Lachaud&amp;lt;/strike&amp;gt; Xavier Provençal&lt;br /&gt;
* Résumé: On veut générer des labyrinthes aussi grands et complexes que possible, avec des murs dans une grille carré voire d&#039;autres domaines. Comment faire pour qu&#039;il y ait toujours un chemin de l&#039;entrée à la sortie ? Comment faire pour qu&#039;il n&#039;y ait qu&#039;un chemin ? Ensuite, comment trouver la sortie quand on est perdu dans le labyrinthe.&lt;br /&gt;
* Objectifs:&lt;br /&gt;
*# Comprendre comment représenter avec une structure de données un labyrinthe&lt;br /&gt;
*# Voir le lien avec la théorie des graphes et voir que le problème se résout de la même façon pour des grilles carrées, hexagonales ou autres.&lt;br /&gt;
*# Comprendre l&#039;algorithme d&#039;arbre couvrant minimum&lt;br /&gt;
*# Comprendre le principe du parcours en profondeur et de la récursivité&lt;br /&gt;
* Pour aller plus loin&lt;br /&gt;
*# coder la génération d&#039;un labyrinthe et sa visualisation&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Mod%C3%A9lisation_math%C3%A9matique_d%27un_labyrinthe Wikipedia]]&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Maze_generation_algorithm Version anglaise plus complète]]&lt;br /&gt;
&lt;br /&gt;
== Pavages par polyomino ==&lt;br /&gt;
&lt;br /&gt;
* Tuteur: Xavier Provençal&lt;br /&gt;
* Résumé : On s&#039;intéresse aux pavages du plan par des tuiles formées de petits carrés collés les uns aux autres, appelé &amp;quot;polyominos&amp;quot;. Étant donné une tuile, peut-on paver le plan ? Si oui, avec quelles opérations (translation et/ou rotations et/ou réflexions) Une fois un pavage réalisé, on observe ses propriétés. Quelles symétries ? Le pavage est-il identique du point de vue de chacune des tuiles ? Si ce n&#039;est pas le cas, en combien de classes peut-on diviser ces tuiles ?&lt;br /&gt;
On s&#039;intéressera aussi à des propriétés connexes. Au lieu de paver tout le plan, on peut essayer de paver une région finie donnée. Plus localement, peut-on encercler complètement une tuile avec des copies d&#039;elle-même, sans former de trous ? Si oui, peut-on faire de même avec la proto-tuile formée par la tuile de départ et toutes ses copies ? Si oui, combien de fois peut-on répéter l&#039;opération ?&lt;br /&gt;
* Objectifs :&lt;br /&gt;
*# Comprendre les différentes classes de pavages (isohédral, k-isohédral, anisohédral).&lt;br /&gt;
*# Pour chacun des sept types de pavages &amp;quot;isohédraux&amp;quot;, comprendre le lien entre les symétries du pavages et la caractérisation des tuiles qui le réalisent.&lt;br /&gt;
*# Pour un pavage k-isohédral, identifier les &amp;quot;classes d&#039;équivalences&amp;quot; et le &amp;quot;domaine fondamental&amp;quot;.&lt;br /&gt;
* Pour aller plus loin :&lt;br /&gt;
*# Coder la génération de tuiles capables de paver le plan en fonction pour une classe de pavages donnée.&lt;br /&gt;
*# Étudier et implémenter certains algorithmes pour le pavages d&#039;un domaine fini.&lt;br /&gt;
* Liens pour démarrer&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Polyomino Polyomino]]&lt;br /&gt;
** [[https://en.wikipedia.org/wiki/Polyomino Polyomino (en)]]&lt;br /&gt;
** [[https://fr.wikipedia.org/wiki/Pavage_par_des_polygones_r%C3%A9guliers Pavages]]&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12441</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12441"/>
		<updated>2020-05-17T15:35:06Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon programme.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour que cet apprentissage ait lieu, il faut un support à améliorer. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on dé[[Fichier:Exemple.jpg]]finit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12440</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12440"/>
		<updated>2020-05-17T15:34:36Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Application */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon programme.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour que cet apprentissage ait lieu, il faut un support à améliorer. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt;&lt;br /&gt;
Le code final se trouve dans la partie source. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on dé[[Fichier:Exemple.jpg]]finit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
Le code entier est disponible dans la partie source&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12439</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12439"/>
		<updated>2020-05-17T15:33:49Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon programme.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour que cet apprentissage ait lieu, il faut un support à améliorer. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on dé[[Fichier:Exemple.jpg]]finit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;br /&gt;
Le code entier est disponible dans la partie source&lt;br /&gt;
&lt;br /&gt;
== Sources == &lt;br /&gt;
[https://github.com/Kroklethon/VISI201/blob/master/reconnaissance_chiffre.py CODE ENTIER]&amp;lt;br/&amp;gt;&lt;br /&gt;
[http://www.http://neuralnetworksanddeeplearning.com/ Neural Networks and Deep Learning] &amp;lt;br/&amp;gt;&lt;br /&gt;
[https://pytorch.org/ PyTorch]&amp;lt;br/&amp;gt;&lt;br /&gt;
[https://www.miximum.fr/blog/introduction-au-deep-learning-2/ Backpropagation]&amp;lt;br/&amp;gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12438</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12438"/>
		<updated>2020-05-17T15:15:54Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Résultats */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon programme.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour que cet apprentissage ait lieu, il faut un support à améliorer. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on dé[[Fichier:Exemple.jpg]]finit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Accur_finale.png]]&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Accur_finale.png&amp;diff=12437</id>
		<title>Fichier:Accur finale.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Accur_finale.png&amp;diff=12437"/>
		<updated>2020-05-17T15:15:36Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12436</id>
		<title>Apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Apprentissage_automatique&amp;diff=12436"/>
		<updated>2020-05-17T15:13:57Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : /* Application */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;L&#039;objectif de ce projet était de se familiariser et de comprendre l&#039;apprentissage automatique, plus communément appelé Deep Learning. Pour ceci, il faut premièrement définir ce qu&#039;est un neurone (en informatique) et donc un réseau de neurones. On parlera ensuite de la façon dont ces systèmes s&#039;adaptent d&#039;eux même, et comment on peut réduire la vitesse d&#039;amélioration pour obtenir un bon programme.&lt;br /&gt;
&lt;br /&gt;
== Deep Learning ==&lt;br /&gt;
Le Deep Learning est le procédé par lequel un programme va apprendre lui même tout au long de son fonctionnement, mais plus particulièrement durant une période appelé le &amp;quot;training&amp;quot;, l&#039;entraînement en français. Durant cette période, on donne au programme des échantillons d&#039;entraînement, qui contiennent la réponse que devrait donner le programme pour que celui-ci s&#039;adapte en fonction de ses erreurs. À la fin, le programme possède un pourcentage de réussite qui définit sa fiabilité par la suite. &lt;br /&gt;
&lt;br /&gt;
== Neurones ==&lt;br /&gt;
Pour que cet apprentissage ait lieu, il faut un support à améliorer. Ce support ne sont d&#039;autres que des neurones: &lt;br /&gt;
&lt;br /&gt;
=== Perceptrons ===&lt;br /&gt;
[[Fichier:Perceptron.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ce type de neurone créé dans les années 50 a un fonctionnement simple. En effet, le neurone prend plusieurs entrées binaire (0 ou 1) pour donner une sortie binaire. &lt;br /&gt;
&amp;lt;br/&amp;gt;[[Fichier:Percerptron_eq.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Comme le montre les inéquations ci dessus, chaque entrée possède un poids qui donne son importance. Si la somme du produit de chaque entrée et de son poids est supérieur à une valeur seuil alors le neurone donne un 1 sinon il donne un 0.&lt;br /&gt;
Nous pouvons aussi interpréter ces inéquations, en faisant entrer en jeu le biais noté b qui va être en quelque sorte la difficulté pour que le perceptron retourne un 1.  &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Perceptron_eq_biais.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour améliorer le jugement d&#039;un perceptron, il faut donc faire varier le poids et le biais de chaque entrée afin de retourner le bit qu&#039;il doit donner. &lt;br /&gt;
&lt;br /&gt;
=== Les neurones sigmoïdes ===&lt;br /&gt;
Un majeur problème du perceptron est qu&#039;un faible changement des poids et des biais peu résulter en un changement total du résultat, nous éloignant fortement du résultat attendu. Nous voulons qu&#039;un petit changement nous rapproche encore plus du résultat parfait quoi qu&#039;il arrive pour éviter les erreurs et ne nous mène pas vers un résultat complètement différent.&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est fait pour éviter ses problème, en effet comme le perceptron il possède un poids et un biais par entrée cependant sa sortie n&#039;est pas 0 ou 1 mais σ(w⋅x+b) où &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Sigmoid_function.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Si z est positif et très grand alors σ(z) est environ égal à 1, si z est négatif et très petit alors σ(z) est environ égale à 0. Dans les extrêmes le neurone sigmoïde se comporte tout comme un perceptron. La différence est visible quand w⋅x+b est un nombre de taille raisonnable, la sortie n&#039;étant plus 0 ou 1 mais un flottant compris entre 0 et 1. On peut voir cela sur la courbe de la fonction :&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Coubre_sigmoid.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Le neurone sigmoïde est donc bien plus précis que le perceptron évitant les dérivations du résultat. &amp;lt;br/&amp;gt;&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Réseaux de neurones ===&lt;br /&gt;
L&#039;objectif de ces neurones n&#039;est pas de rester seul mais bien de former un réseaux les sorties de plusieurs neurones devenant les entrées d&#039;un neurone.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces réseaux sont constitués de différentes couches:&amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche d&#039;entrées &amp;lt;br/&amp;gt;&lt;br /&gt;
-les couches cachées &amp;lt;br/&amp;gt;&lt;br /&gt;
-la couche de sorties &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Comme leur nom l&#039;indique, la couche d&#039;entrée contient les entrées données au programme qui vont ensuite être envoyées aux différents neurones de la couche suivante, cette entrée peut être les bits de l&#039;objet à traiter, un par neurone. La couche de sortie contient tous les neurones qui vont donner le résultat du réseau, il peut très bien en avoir un ou plusieurs. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par exemple: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sortie.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
Ou encore: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Reseau_sorties.png]] &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Descente de gradient ==&lt;br /&gt;
Afin de trouver les bons poids et biais pour qu&#039;un neurone fonctionne sans problème, il faut savoir de combien les modifier. On appelle ce procédé la descente de gradient. On prend une fonction que l&#039;on appelle fonction de coût dont les variables sont le poids et le biais, cette fonction représente la distance entre le résultat obtenu et le résultat que nous aurions du obtenir. l&#039;objectif est de minimiser la fonction en trouvant les poids et biais correspondant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:graph_cost.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On comprend grâce à cet exemple de graphique de fonction de coût qu&#039;en trouvant les valeurs de poids et biais (ici matérialisés par v1,v2,... en fonction du nombre de dimension) adéquats, on obtient le minimum de la fonction et donc on en conclut que les poids et biais sont les bons. &amp;lt;br/&amp;gt;&lt;br /&gt;
D&#039;où le terme de descente de gradient, on cherche à descendre la pente de la fonction pour trouver les bonnes valeurs. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Grad_form.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Cela nous donne cette équation nous montre bien, qu&#039;un changement dans les poids et les biais mène à un changement de la valeur de la fonction de coût.  &lt;br /&gt;
Cette forme donne donc naissance à une autre forme généralisée à toutes les dimensions: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:form_gen_grad1.png]]&lt;br /&gt;
où&lt;br /&gt;
[[Fichier:form_gen_grad2.png]]&lt;br /&gt;
et&lt;br /&gt;
[[Fichier:form_gen_grad3.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Dans l&#039;équation Δv, on note la présence de η qui est le taux d&#039;apprentissage, il permet de choisir à quel point on veut évoluer vite, cependant si la taille est trop grande ou trop petite cela peut nuire à la rapidité d&#039;apprentissage.&lt;br /&gt;
&lt;br /&gt;
=== Backpropagation === &lt;br /&gt;
Cependant pour que la fonction de coût ait un impact sur tout le réseau, il faut pouvoir le parcourir à nouveau pour modifier les valeurs comme il se doit en fonction de l&#039;erreur car la fonction de coût fonctionne avec le résultat et ne peut donc être obtenue avant. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela on utilise la backpropagation, qui comme son nom l&#039;indique elle consiste à partir du résultat, et donc de l&#039;erreur, pour trouver les erreurs sur chaque poids ou biais grâce aux couches précédentes. &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
En propageant vers l&#039;arrière, on peut bien voir quel poids ont causé la plus grande divergence sur le neurone suivant permettant de les mettre à jour. Par la méthode de la descente de gradient on obtient alors des poids plus près de ceux voulus. On répète ensuite cette algorithme pour chaque échantillon d&#039;entraînement pour obtenir un réseau correct.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Application == &lt;br /&gt;
Nous allons maintenant créer un réseau que l&#039;on va entraîner à reconnaître les écritures de chiffre manuscrite. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour cela nous allons utiliser plusieurs librairies dont la plus importante : PyTorch, faite pour le deep learning et qui possède un tutoriel très pratique pour se familiariser, elle facilitera l&#039;implémentation des réseaux, fonction de coût et la backpropagation.&amp;lt;br/&amp;gt;&lt;br /&gt;
On utilise ici la base de données MNIST contenant 60000 échantillons d&#039;entraînement et 10000 de test.  &amp;lt;br/&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Préliminaires ===&lt;br /&gt;
Il faut premièrement importer tout ce dont nous aurons besoin: &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:import.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Ensuite, on importe les données pour l&#039;entraînement et les tests. On définit aussi le nombre de canaux pour les couleurs en transformant les images en tensor (type de matrice utilisée ici) et en les normalisant.&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
On définit les classes possibles, nos résultats. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Creation_set.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Réseau ===&lt;br /&gt;
Nous allons maintenant créer le réseau: &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:class.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Pour ceci on dé[[Fichier:Exemple.jpg]]finit de multiple fonction, qui vont définir le réseau. On définit le nombre de canal de couleurs, ici 1, la définition de l&#039;image et le réseau et ses dimensions avec &amp;lt;code&amp;gt; nn.Linear &amp;lt;/code&amp;gt; avec lequel on définit le nombre de valeurs d&#039;entrée et de sortie. Cette fonction va appliquer la transformation linéaire y = x*W^T + b avec x l&#039;entrée et y la sortie. &amp;lt;br/&amp;gt; &lt;br /&gt;
On définit ensuite la fonction forward qui va permettre d&#039;évoluer dans le réseau. &lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
=== Entraînement ===&lt;br /&gt;
On doit maintenant définir la phase d&#039;entraînement: &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:training.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous avons premièrement besoin de définir la fonction de coût (ici loss) et la méthode de descente de gradient (ici SGD = Stochastic Gradient Descent).&amp;lt;br/&amp;gt;&lt;br /&gt;
Nous allons faire 2 époque d&#039;entraînement, ce qui est largement suffisant dans notre cas. &amp;lt;br/&amp;gt;&lt;br /&gt;
Par la  suite on prend des échantillons et leur classe et on les fait passer dans le réseau. Ensuite on calcule l&#039;erreur, la renvoie dans le réseau à l&#039;aide de &amp;lt;code&amp;gt;.backward()&amp;lt;/code&amp;gt; et on actualise les poids et biais à l&#039;aide de &amp;lt;code&amp;gt;optimizer.step()&amp;lt;/code&amp;gt; &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour voir l&#039;avancement du processus on ajoute un affichage nous montrant l&#039;époque, le nombre d&#039;échantillons déjà utilisés et l&#039;erreur moyenne des 2000 derniers échantillons. &amp;lt;br/&amp;gt;&lt;br /&gt;
Pour finir cette phase d&#039;entraînement, on sauvegarde l&#039;état actuel du réseau.&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Test ===&lt;br /&gt;
Nous devons maintenant tester la fiabilité du réseau, pour cela on charge des images aléatoires, on les passe dans le réseau et on compare les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:Test_res.png]]&lt;br /&gt;
&amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Additionnel ===&lt;br /&gt;
Comme vu dans le paragraphe précédent, on affiche l&#039;image à l&#039;aide de la fonction &amp;lt;code&amp;gt; imshow &amp;lt;/code&amp;gt;. Celle-ci transforme les images pour être affichées grâce à matplotlib:&amp;lt;br/&amp;gt; &lt;br /&gt;
[[Fichier:Imshow.png]] &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nous avons aussi deux fonctions qui affichent les pourcentages de réussite globale sur les 10000 échantillons de test et de chaque chiffre. &amp;lt;br/&amp;gt;&lt;br /&gt;
[[Fichier:accuracy.png]]&amp;lt;br/&amp;gt;&lt;br /&gt;
Ces deux fonctions testent sur 10000 échantillons, cependant avec l&#039;attribut &amp;lt;code&amp;gt; .no_grad() &amp;lt;/code&amp;gt; le réseau s&#039;exécute sans calculer les gradients, les erreurs ou encore la backprop, rendant le processus plus rapide car nous voulons juste les résultats. &amp;lt;br/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
J&#039;ai dis précédemment que seulement 2 époques de test allaient nous suffire, en effet si on regarde les résultats obtenus on peut voir que l&#039;on a une précision de 98% ce qui est déjà très correct pour une utilisation comme la notre. Dans le milieu professionnel comme la lecture de chèque de banque 2% d&#039;erreur est déjà bien trop grand.&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Accuracy.png&amp;diff=12435</id>
		<title>Fichier:Accuracy.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Accuracy.png&amp;diff=12435"/>
		<updated>2020-05-17T15:07:19Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Imshow.png&amp;diff=12434</id>
		<title>Fichier:Imshow.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Imshow.png&amp;diff=12434"/>
		<updated>2020-05-17T15:03:35Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Test_res.png&amp;diff=12433</id>
		<title>Fichier:Test res.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Test_res.png&amp;diff=12433"/>
		<updated>2020-05-17T14:55:48Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Training.png&amp;diff=12432</id>
		<title>Fichier:Training.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Training.png&amp;diff=12432"/>
		<updated>2020-05-17T14:40:10Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Class.png&amp;diff=12431</id>
		<title>Fichier:Class.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Class.png&amp;diff=12431"/>
		<updated>2020-05-17T14:30:30Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Creation_set.png&amp;diff=12430</id>
		<title>Fichier:Creation set.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Creation_set.png&amp;diff=12430"/>
		<updated>2020-05-17T14:18:49Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Transform%C3%A9e_Burrows_Wheeler&amp;diff=12429</id>
		<title>Transformée Burrows Wheeler</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Transform%C3%A9e_Burrows_Wheeler&amp;diff=12429"/>
		<updated>2020-05-17T14:15:27Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La transformée de Burrows-Wheeler (aussi appelé BWT) est la seconde étape, mais pas des moindres, de l&#039;algorithme de compression [https://en.wikipedia.org/wiki/Bzip2 bzip2]. C&#039;est d&#039;ailleurs l&#039;un des deux principaux rouages de l&#039;algorithme d&#039;après son auteur :&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&lt;br /&gt;
&amp;lt;p&amp;gt;bzip2 compresses files using the Burrows-Wheeler block sorting text compression algorithm, and Huffman coding.&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;p&amp;gt;- Julian Seward&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Vous pouvez essayer cette transformée [http://sb.bde-maite.fr/leonards ici] !&lt;br /&gt;
&lt;br /&gt;
== Utilisation ==&lt;br /&gt;
Cette transformée est utilisée pour faire apparaître des motifs redondants dans une séquence de lettres ou d&#039;octets, ce qui aide à la compression avec [https://fr.wikipedia.org/wiki/Codage_de_Huffman l&#039;encoding d&#039;Huffman].&lt;br /&gt;
&lt;br /&gt;
Elle est aussi utilisée dans le domaine de la génétique, pour chercher une sous-chaîne (une séquence) dans un génome humain de plusieurs gigaoctets.&lt;br /&gt;
&lt;br /&gt;
== Principe de fonctionnement ==&lt;br /&gt;
=== La transformée ===&lt;br /&gt;
La transformé de Burrows-Wheeler se construit à partir d&#039;une matrice de permutations des lettres du mot (ou d&#039;une séquence d&#039;octet de façon générale).&lt;br /&gt;
&lt;br /&gt;
Prenons le mot &#039;&#039;ABRACADABRA&#039;&#039;.&lt;br /&gt;
Voici les étapes à suivre :&lt;br /&gt;
&lt;br /&gt;
1. On créer la matrice des rotations&lt;br /&gt;
&lt;br /&gt;
Il y a autant de rotations que de lettres/octets&lt;br /&gt;
&lt;br /&gt;
 A B R A C A D A B R A&lt;br /&gt;
 B R A C A D A B R A A&lt;br /&gt;
 R A C A D A B R A A B&lt;br /&gt;
 A C A D A B R A A B R&lt;br /&gt;
 C A D A B R A A B R A&lt;br /&gt;
 A D A B R A A B R A C&lt;br /&gt;
 D A B R A A B R A C A&lt;br /&gt;
 A B R A A B R A C A D&lt;br /&gt;
 B R A A B R A C A D A&lt;br /&gt;
 R A A B R A C A D A B&lt;br /&gt;
 A A B R A C A D A B R&lt;br /&gt;
&lt;br /&gt;
2. On trie les lignes suivant un ordre choisi, qu&#039;il faudra respecter pour l&#039;inverse de la transformée. Ici, je choisis l&#039;ordre alphabétique&lt;br /&gt;
&lt;br /&gt;
 A A B R A C A D A B R&lt;br /&gt;
 A B R A A B R A C A D&lt;br /&gt;
 A B R A C A D A B R A&lt;br /&gt;
 A C A D A B R A A B R&lt;br /&gt;
 A D A B R A A B R A C&lt;br /&gt;
 B R A A B R A C A D A&lt;br /&gt;
 B R A C A D A B R A A&lt;br /&gt;
 C A D A B R A A B R A&lt;br /&gt;
 D A B R A A B R A C A&lt;br /&gt;
 R A A B R A C A D A B&lt;br /&gt;
 R A C A D A B R A A B&lt;br /&gt;
&lt;br /&gt;
3. On trouve la ligne contenant le mot initial, et on retiens sont indice I&lt;br /&gt;
&lt;br /&gt;
 A A B R A C A D A B R&lt;br /&gt;
 A B R A A B R A C A D&lt;br /&gt;
 &#039;&#039;&#039;A B R A C A D A B R A  I=3&#039;&#039;&#039;&lt;br /&gt;
 A C A D A B R A A B R&lt;br /&gt;
 A D A B R A A B R A C&lt;br /&gt;
 B R A A B R A C A D A&lt;br /&gt;
 B R A C A D A B R A A&lt;br /&gt;
 C A D A B R A A B R A&lt;br /&gt;
 D A B R A A B R A C A&lt;br /&gt;
 R A A B R A C A D A B&lt;br /&gt;
 R A C A D A B R A A B&lt;br /&gt;
&lt;br /&gt;
4. Pour finir cette transformée, nous devons avoir l&#039;indice du mot initial et la dernière colonne de la matrice : &lt;br /&gt;
&lt;br /&gt;
 A A B R A C A D A B &#039;&#039;&#039;R&#039;&#039;&#039;&lt;br /&gt;
 A B R A A B R A C A &#039;&#039;&#039;D&#039;&#039;&#039;&lt;br /&gt;
 A B R A C A D A B R &#039;&#039;&#039;A&#039;&#039;&#039;  I=3&lt;br /&gt;
 A C A D A B R A A B &#039;&#039;&#039;R&#039;&#039;&#039;&lt;br /&gt;
 A D A B R A A B R A &#039;&#039;&#039;C&#039;&#039;&#039;&lt;br /&gt;
 B R A A B R A C A D &#039;&#039;&#039;A&#039;&#039;&#039;&lt;br /&gt;
 B R A C A D A B R A &#039;&#039;&#039;A&#039;&#039;&#039;&lt;br /&gt;
 C A D A B R A A B R &#039;&#039;&#039;A&#039;&#039;&#039;&lt;br /&gt;
 D A B R A A B R A C &#039;&#039;&#039;A&#039;&#039;&#039;&lt;br /&gt;
 R A A B R A C A D A &#039;&#039;&#039;B&#039;&#039;&#039;&lt;br /&gt;
 R A C A D A B R A A &#039;&#039;&#039;B&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Le résultat est donc &#039;&#039;3RDARCAAAABB&#039;&#039;. On voit que dans cet exemple, quatre &#039;&#039;A&#039;&#039; se suivent ainsi que deux &#039;&#039;B&#039;&#039;. Il est facile d&#039;imaginer que sur des séquences beaucoup plus grande, il y aura suffisamment de motifs redondants pour que la compression soit bonne.&lt;br /&gt;
&lt;br /&gt;
=== L&#039;inverse de la transformée ===&lt;br /&gt;
Pour reconstruire la séquence d&#039;origine, il faut répéter deux étapes, jusqu&#039;à avoir une matrice carrée : &lt;br /&gt;
# On insert la séquence en première colonne&lt;br /&gt;
# On tri les lignes par ordre alphabétique&lt;br /&gt;
Une fois que nous avons la matrice carré reconstruite, on prend la ligne correspondant à l&#039;indice.&lt;br /&gt;
&lt;br /&gt;
Partons de &#039;&#039;3BNENAA&#039;&#039;. L&#039;indice est de 3 et la séquence est &#039;&#039;BNENAA&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| Insertion&lt;br /&gt;
| Tri&lt;br /&gt;
| Insertion&lt;br /&gt;
| Tri&lt;br /&gt;
| Insertion&lt;br /&gt;
| Tri&lt;br /&gt;
| Insertion&lt;br /&gt;
| Tri&lt;br /&gt;
| Insertion&lt;br /&gt;
| Tri&lt;br /&gt;
| Insertion&lt;br /&gt;
| Tri&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
 B&lt;br /&gt;
 N&lt;br /&gt;
 E&lt;br /&gt;
 N&lt;br /&gt;
 A&lt;br /&gt;
 A&lt;br /&gt;
| &lt;br /&gt;
 A&lt;br /&gt;
 A&lt;br /&gt;
 B&lt;br /&gt;
 E&lt;br /&gt;
 N&lt;br /&gt;
 N&lt;br /&gt;
|&lt;br /&gt;
 BA&lt;br /&gt;
 NA&lt;br /&gt;
 EB&lt;br /&gt;
 NE&lt;br /&gt;
 AN&lt;br /&gt;
 AN&lt;br /&gt;
|&lt;br /&gt;
 AN&lt;br /&gt;
 AN&lt;br /&gt;
 BA&lt;br /&gt;
 EB&lt;br /&gt;
 NA&lt;br /&gt;
 NE&lt;br /&gt;
|&lt;br /&gt;
 BAN&lt;br /&gt;
 NAN&lt;br /&gt;
 EBA&lt;br /&gt;
 NEB&lt;br /&gt;
 ANA&lt;br /&gt;
 ANE&lt;br /&gt;
|&lt;br /&gt;
 ANA&lt;br /&gt;
 ANE&lt;br /&gt;
 BAN&lt;br /&gt;
 EBA&lt;br /&gt;
 NAN&lt;br /&gt;
 NEB&lt;br /&gt;
|&lt;br /&gt;
 BANA&lt;br /&gt;
 NANE&lt;br /&gt;
 EBAN&lt;br /&gt;
 NEBA&lt;br /&gt;
 ANAN&lt;br /&gt;
 ANEB&lt;br /&gt;
|&lt;br /&gt;
 ANAN&lt;br /&gt;
 ANEB&lt;br /&gt;
 BANA&lt;br /&gt;
 EBAN&lt;br /&gt;
 NANE&lt;br /&gt;
 NEBA&lt;br /&gt;
|&lt;br /&gt;
 BANAN&lt;br /&gt;
 NANEB&lt;br /&gt;
 EBANA&lt;br /&gt;
 NEBAN&lt;br /&gt;
 ANANE&lt;br /&gt;
 ANEBA&lt;br /&gt;
|&lt;br /&gt;
 ANANE&lt;br /&gt;
 ANEBA&lt;br /&gt;
 BANAN&lt;br /&gt;
 EBANA&lt;br /&gt;
 NANEB&lt;br /&gt;
 NEBAN&lt;br /&gt;
|&lt;br /&gt;
 BANANE&lt;br /&gt;
 NANEBA&lt;br /&gt;
 EBANAN&lt;br /&gt;
 NEBANA&lt;br /&gt;
 ANANEB&lt;br /&gt;
 ANEBAN&lt;br /&gt;
|&lt;br /&gt;
 ANANEB  1&lt;br /&gt;
 ANEBAN  2&lt;br /&gt;
 &#039;&#039;&#039;BANANE  3&#039;&#039;&#039;&lt;br /&gt;
 EBANAN  4&lt;br /&gt;
 NANEBA  5&lt;br /&gt;
 NEBANA  6&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Le mot d&#039;origine est donc &#039;&#039;BANANE&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
== Algorithmes ==&lt;br /&gt;
À partir du [https://www.hpl.hp.com/techreports/Compaq-DEC/SRC-RR-124.pdf document de référence], on peut établir plusieurs versions d&#039;implémentations de la transformée de Burrows-Wheeler. Une première &amp;quot;naïve&amp;quot;, en appliquant la transformée sans se poser de question. La seconde en se basant sur la partie 4 &#039;&#039;An efficient implémentation&#039;&#039; de l&#039;article officiel.&lt;br /&gt;
=== Implémentation naïve ===&lt;br /&gt;
==== Algorithmes Python ====&lt;br /&gt;
&lt;br /&gt;
Application : &lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
def BTW(word: str) -&amp;gt; Tuple[int, str]:&lt;br /&gt;
    &amp;quot;&amp;quot;&amp;quot;Applique la transformée de Burrows-Wheeler sur `word`&amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
&lt;br /&gt;
    # On construit la matrice de rotation en utilisant les listes en compréhension&lt;br /&gt;
    matrice = [word[i:] + word[:i] for i in range(len(word))]&lt;br /&gt;
&lt;br /&gt;
    # On trie (ici, en suivant l&#039;ordre de la table ASCII)&lt;br /&gt;
    matrice = sorted(matrice)&lt;br /&gt;
&lt;br /&gt;
    # On récupère l&#039;indice de la chaine de départ &lt;br /&gt;
    index = matrice.index(word)&lt;br /&gt;
&lt;br /&gt;
    # On renvoie l&#039;indice et la dernière colonne de la matrice&lt;br /&gt;
    return index, &amp;quot;&amp;quot;.join([row[-1] for row in matrice])&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Application inverse :&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
def invert_BTW(index: int, transformed: str) -&amp;gt; str:&lt;br /&gt;
    &amp;quot;&amp;quot;&amp;quot;Applique l&#039;inverse de la transformée de Burrows-Wheeler en fonction de `index` et `transformed`&amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
&lt;br /&gt;
    # On initialise la matrice avec &#039;nombre de lignes = len(transformed)&#039;&lt;br /&gt;
    matrice = [ [] for _ in range(len(transformed))]&lt;br /&gt;
&lt;br /&gt;
    # Pour chaque caractère (ou colonne)&lt;br /&gt;
    for _ in range(len(matrice)):&lt;br /&gt;
&lt;br /&gt;
        # On insère le mot `transformed` dans la première colonne&lt;br /&gt;
        for i,row in enumerate(matrice):&lt;br /&gt;
            row.insert(0, word[i])&lt;br /&gt;
&lt;br /&gt;
        # Et on trie les lignes avec la même fonction que précédemment&lt;br /&gt;
        matrice = sorted(matrice, key=lambda row: &amp;quot;&amp;quot;.join(row))&lt;br /&gt;
&lt;br /&gt;
    # On renvoie la ligne de la matrice qui nous intéresse, grâce à l&#039;indice de départ&lt;br /&gt;
    return &amp;quot;&amp;quot;.join(matrice[index])&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==== Limitations ====&lt;br /&gt;
Le problème de cet algorithme, c&#039;est qu&#039;à chaque fois nous construisons une matrice de taille &amp;lt;math&amp;gt;N\times N&amp;lt;/math&amp;gt;, avec &amp;lt;math&amp;gt;N=&amp;lt;/math&amp;gt; taille des données passées à la transformée (e.g. : ABRACADABRA -&amp;gt; Matrice 11,11). Cela n&#039;est pas un problème pour des mots, mais pour des fichiers  de plusieurs gigaoctets cela prendrait trop de place mémoire en plus d&#039;être complètement inefficace, dû au grand nombre d&#039;itérations sur la matrice.&lt;br /&gt;
&lt;br /&gt;
=== Implémentation avancée ===&lt;br /&gt;
Pour palier le problème de la mémoire, on stocke le mot/fichier dans une variable (dans la réalité, on traitera des fichiers par block, et non pas directement tout le fichier). &lt;br /&gt;
Chaque &amp;quot;ligne&amp;quot; de la matrice ne peut en faite contenir que deux informations : une référence à la chaîne de caractère et l&#039;indice de position de la première lettre de la rotation.&lt;br /&gt;
&lt;br /&gt;
Puisque nous voulons trier ces lignes, nous devons pouvoir les comparer (inférieur, supérieur, égale...).&lt;br /&gt;
&lt;br /&gt;
On peut donc créer une classe &#039;&#039;Rotation&#039;&#039; qui réponde à ces critères : &lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
class Rotation:&lt;br /&gt;
    &amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
        Provide convenient operations on rotated iterables.&lt;br /&gt;
        `Rotation(s, i)` represent something like `s[i:]`&lt;br /&gt;
    &amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __init__(self, string, index):&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot;string : methode getitem et lt&lt;br /&gt;
            string : iterable object passed as reference, implementing standard operators (&amp;gt;,&amp;lt;, ==...)&lt;br /&gt;
            index : index of first value&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
&lt;br /&gt;
        self.string = string&lt;br /&gt;
        self.index = index&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __str__(self):&lt;br /&gt;
        return str(self.string[self.index:] + self.string[:self.index])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __repr__(self):&lt;br /&gt;
        return &#039;Rot(&#039; + str(self.string[self.index:] + self.string[:self.index]) + &#039;)&#039;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __getitem__(self, index):&lt;br /&gt;
        return self.string[(self.index + index)%len(self.string)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __len__(self):&lt;br /&gt;
        return len(self.string) - self.index&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __eq__(self, other):&lt;br /&gt;
        return self.string == other.string and self.index == other.index&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __lt__(self, other):&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot; Lower Than `&amp;lt;` operator &lt;br /&gt;
            usage : Rotation(s, index2) &amp;lt; Rotation (s, index2)&lt;br /&gt;
            other : Roration&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot; &lt;br /&gt;
        for i in range(min(len(self), len(other))):&lt;br /&gt;
           if self[i] &amp;lt; other[i]:&lt;br /&gt;
               return True&lt;br /&gt;
           elif self[i] &amp;gt; other[i]:&lt;br /&gt;
               return False&lt;br /&gt;
        return len(self) &amp;lt; len(other)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __le__(self, other):&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot; Lower Than `&amp;lt;=` operator &lt;br /&gt;
            usage : Rotation(s, index2) &amp;lt;= Rotation (s, index2)&lt;br /&gt;
            other : Roration&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot; &lt;br /&gt;
        if self[0] &amp;lt;= other[0]:&lt;br /&gt;
           return True&lt;br /&gt;
        else:&lt;br /&gt;
           return False&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __gt__(self, other):&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot; Lower Than `&amp;gt;` operator &lt;br /&gt;
            usage : Rotation(s, index2) &amp;gt; Rotation (s, index2)&lt;br /&gt;
            other : Roration&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
        for i in range(min(len(self), len(other))):&lt;br /&gt;
           if self[i] &amp;gt; other[i]:&lt;br /&gt;
               return True&lt;br /&gt;
           elif self[i] &amp;lt; other[i]:&lt;br /&gt;
               return False&lt;br /&gt;
        return False&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    def __ge__(self, other):&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot; Lower Than `&amp;gt;=` operator &lt;br /&gt;
            usage : Rotation(s, index2) &amp;gt;= Rotation (s, index2)&lt;br /&gt;
            other : Roration&lt;br /&gt;
        &amp;quot;&amp;quot;&amp;quot; &lt;br /&gt;
        if self[0] &amp;gt;= other[0]:&lt;br /&gt;
           return True&lt;br /&gt;
        else:&lt;br /&gt;
           return False&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Avec cette classe, l&#039;implémentation est plutôt simple : &lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
def lastCol(rotation_table):&lt;br /&gt;
    &amp;quot;&amp;quot;&amp;quot;Renvoie la dernière colonne d&#039;une matrice sous la forme List&amp;lt;List&amp;gt;&amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
&lt;br /&gt;
    return [rotation[-1] for rotation in rotation_table]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
def BTW(iterable):&lt;br /&gt;
    &amp;quot;&amp;quot;&amp;quot;Effectue la transformée de Burrows-Wheeler sur un itérable avec la classe Rotation&amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
&lt;br /&gt;
    # On crée une liste des rotations&lt;br /&gt;
    rotation_table = list(map(lambda i: Rotation(iterable, i), range(len(iterable))))&lt;br /&gt;
&lt;br /&gt;
    # On la trie&lt;br /&gt;
    rotation_table = sorted(rotation_table)&lt;br /&gt;
&lt;br /&gt;
    index = None&lt;br /&gt;
&lt;br /&gt;
    # On cherche l&#039;indice de la chaine de départ&lt;br /&gt;
    for i, rotation in enumerate(rotation_table):&lt;br /&gt;
&lt;br /&gt;
        if rotation.index == 0:&lt;br /&gt;
            index = i&lt;br /&gt;
            break&lt;br /&gt;
&lt;br /&gt;
    return index, lastCol(rotation_table)&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Seulement pour l&#039;inverse de la transformée, la classe &#039;&#039;Rotation&#039;&#039; n&#039;est pas d&#039;une grande utilité. Il faut suivre la partie qui traite les optimisations de l&#039;algorithme dans le document officiel.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
def invert_BTW(index, lastCol):&lt;br /&gt;
    &amp;quot;&amp;quot;&amp;quot; Effectue l&#039;inverse de la transformée de Burrows-Wheeler.&lt;br /&gt;
&lt;br /&gt;
        Notation du document offciel :&lt;br /&gt;
        lastCol = L&lt;br /&gt;
        len(lastCol) = N&lt;br /&gt;
        index = I&lt;br /&gt;
        precedingChars = C, même taille que l&#039;alphabet&lt;br /&gt;
        P = P, même taille que la colonne&lt;br /&gt;
    &amp;quot;&amp;quot;&amp;quot;&lt;br /&gt;
&lt;br /&gt;
    # On cherche à construire T, une liste qui à un numéro de ligne de la matrice M associe une ligne de la matrice M&#039; (M&#039; étant une matrice dont chaque ligne a été décalée de 1)&lt;br /&gt;
&lt;br /&gt;
    P = [] # i -&amp;gt; Nombre d&#039;instances du caracère lastCol[i] dans le préfix lastCol[:i] (L[0,...,i-1])&lt;br /&gt;
    freq = {}&lt;br /&gt;
&lt;br /&gt;
    for i, char in enumerate(lastCol):&lt;br /&gt;
        freqChar = freq.get(char, 0)&lt;br /&gt;
        P.append(freqChar)&lt;br /&gt;
        freq[char] = freqChar+1&lt;br /&gt;
&lt;br /&gt;
    precedingChars = {}&lt;br /&gt;
    tmp = 0&lt;br /&gt;
    for c in sorted(freq.keys()):&lt;br /&gt;
        precedingChars[c] = tmp&lt;br /&gt;
        tmp += freq[c]&lt;br /&gt;
&lt;br /&gt;
    del freq&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
    T = [] # La liste que nous voulions&lt;br /&gt;
    for i, char in enumerate(lastCol):&lt;br /&gt;
        T.append(P[i] + precedingChars[char])&lt;br /&gt;
&lt;br /&gt;
    del precedingChars, P&lt;br /&gt;
&lt;br /&gt;
    &lt;br /&gt;
    # Explication  de la notation du document officiel :&lt;br /&gt;
    # T^2 = T[T[I]&lt;br /&gt;
    # T^3 = T[T^2[I] = T[T[T[I]&lt;br /&gt;
&lt;br /&gt;
    word = []&lt;br /&gt;
    tmp = index # Représente le résultat de T^x&lt;br /&gt;
    for i in range(len(lastCol)):&lt;br /&gt;
        word.append(lastCol[tmp])&lt;br /&gt;
        tmp = T[tmp]&lt;br /&gt;
&lt;br /&gt;
    word.reverse() # On remet le mot à l&#039;endroit&lt;br /&gt;
    word = &amp;quot;&amp;quot;.join(word)&lt;br /&gt;
&lt;br /&gt;
    return word&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&#039;avantage de cet algorithme, c&#039;est qu&#039;il utilise en mémoire moins de ressources qu&#039;une matrice de rotations. Il utilise un dictionnaire de la taille de &amp;quot;l&#039;alphabet&amp;quot; de la séquence (un texte français -&amp;gt; 26 lettres *2 (majuscule et minuscule) + les caractères spéciaux) et le texte en question.&lt;br /&gt;
&lt;br /&gt;
== Sources ==&lt;br /&gt;
* [https://www.hpl.hp.com/techreports/Compaq-DEC/SRC-RR-124.pdf A block sorting lossless data compression algorithm]&lt;br /&gt;
* [https://en.wikipedia.org/wiki/Burrows%E2%80%93Wheeler_transform Wikipedia EN]&lt;br /&gt;
* [http://blog.thegrandlocus.com/2016/07/a-tutorial-on-burrows-wheeler-indexing-methods A tutorial on Burrows-Wheeler indexing methods]&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
	<entry>
		<id>http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Import.png&amp;diff=12428</id>
		<title>Fichier:Import.png</title>
		<link rel="alternate" type="text/html" href="http://os-vps418.infomaniak.ch:1250/mediawiki/index.php?title=Fichier:Import.png&amp;diff=12428"/>
		<updated>2020-05-17T14:02:40Z</updated>

		<summary type="html">&lt;p&gt;El-huissier : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>El-huissier</name></author>
	</entry>
</feed>