Séquence : 8
Transformers
Vendredi 20 Janvier 2023, à 00h00
Au sommaire :
  • Architecture du Transformer (type BERT)

  • Algorithme de l’Attention (Self-Attention)

  • Multi-Head Attention

  • Les différentes architectures de Transformers

  • Le Pré-entraînement

  • Fine-Tuning

  • Vision Transformer

  • TP : classification de critiques de films (IMDB) sous PyTorch

Durée: 2.15h
Regarder sur YouTube