Лекция 2. Механизм внимания, архитектура трансформер

  1. 00:16Архитектура трансформер
  2. 02:29Токенизация слоя
  3. 07:20Позиционное кодирование
  4. 10:55Преобразование векторов через трансформер-блоки
  5. 32:45Итоговое предсказание слова линейным слоем
  6. 45:55Transformer: первое впечатление
  7. 48:24BERT
  8. 57:12Некоторые практические аспекты работы с LLM
  9. 01:17:04Домашнее задание