Tensorflow without a PhD – 11 – 12 – 13

Mise en place de la batch norm pour un dernier petit gain de deux dixièmes de %, taux de réussite finale de 99.52. Pas loin du reccord mondial qui ajoute une technique d’expansion des données (nombre de neurones des couches intermédiaires plus important que le nombre de données en entrée). Mais là il va falloir commencer à disposer de ressources de calcul un petit peu plus importantes qu’un modeste portable 😉

https://github.com/neodelphis/tensorflow-without-a-phd-french

Par contre étrange problème avec la fonction de tensorflow: tf.nn.batch_normalization. Bouteilles à la mer lancées sur github et stackoverflow et un exemple ici:

https://github.com/neodelphis/tensorflow-without-a-phd-french/blob/master/mnist_test.ipynb