Лекция 2. Механизм внимания, архитектура трансформер
- 00:16Архитектура трансформер
- 02:29Токенизация слоя
- 07:20Позиционное кодирование
- 10:55Преобразование векторов через трансформер-блоки
- 32:45Итоговое предсказание слова линейным слоем
- 45:55Transformer: первое впечатление
- 48:24BERT
- 57:12Некоторые практические аспекты работы с LLM
- 01:17:04Домашнее задание
