Démystifier les outils mathématiques pour l’apprentissage des réseaux de neurones.
- 00:00 Introduction
- 02:51 Petit retour sur la séquence précédente
- 11:30 Partie 1 : Transformation de la représentation des données
- 40:11 Partie 2 : Descente de gradient
- 59:04 Partie 3 : Calcul du gradient dans un réseau de neurones
- 1:32:23 Partie 4 : La descente de gradient stochastique
- 1:37:30 Conclusion
Cette séquence répond aux questions suivantes :
- Qu-est ce qu’une descente de gradient ?
- Comment est calculé le gradient dans les réseaux de neurones (retro-propagation) ?
- Comment un réseau convolutif transforme t-il les images, couche après couche ?
- Comment une donnée d’entrée est-elle transformée en prédiction ?
- “Stochastique”… c’est quoi ?
- Quel intérêt pour l’apprentissage des réseaux de neurones ?
Durée : 2h