x 1.00
Скачать видео

Лекция 13. Seq2Seq и его ограничение

  1. 00:00Seq2Seq
  2. 04:14Attention
  3. 13:33Словарь
  4. 17:28Key, query, value
  5. 22:09Attention Layer
  6. 28:29Self-Attention Layer
  7. 32:47Positional encoding
  8. 35:06Multihead Self-Attention Layer
  9. 42:42Примеры применений Transformer
  10. 45:10BERT
  11. 59:19GPT (Generative Pretrained Transformer )
  12. 01:06:01Self-supervised learning
  13. 01:13:35Другие подходы
  14. 01:22:16Ролик о сегментации