Применение нейронных сетей в компьютерной лингвистике
МАТЕРИАЛЫ К КУРСУ: https://github.com/Xeanst/NN_in_compling?tab=readme-ov-file
https://github.com/Xeanst/NN_in_compling
Цель спецкурса – обеспечить системное представление о нейросетевых алгоритмах, используемых в компьютерной лингвистике, и сформировать практические навыки применения нейронных сетей в задачах автоматической обработки текстовых данных. Курс начинается с повторения «донейросетевых» алгоритмов, после чего осуществляется переход к искусственным нейронным сетям. Слушатели учатся работать с библиотекой PyTorch, получают представление об архитектуре рекуррентных нейронных сетей и учатся использовать их для автоматической обработки текстов. Также участники спецкурса осваивают принцип работы механизма внимания, знакомятся с архитектурой Трансформер и языковыми моделями на её основе.
- 54:32Лекция 1. Классическое машинное обучение. Часть 1
- 51:29Лекция 2. Классическое машинное обучение. Часть 2
- 39:55Лекция 3. Введение в нейросетевые алгоритмы
- 52:48Лекция 4. Работа с тензорами и реализация персептрона. Часть 1
- 56:31Лекция 5. Работа с тензорами и реализация персептрона. Часть 2
- 56:54Лекция 6. Методы векторного представления слов с помощью нейронных сетей. Часть 1
- 46:50Лекция 7. Методы векторного представления слов с помощью нейронных сетей. Часть 2
- 56:11Лекция 8. Архитектура рекуррентной нейронной сети
- 48:44Лекция 9. Языковое моделирование
- 42:32Лекция 10. Задача перевода одной последовательности в другую
- 55:15Лекция 11. Архитектура Трансформер
- 46:21Лекция 12. Языковая модель BERT
- 39:33Лекция 13. Использование модели BERT
- 41:52Лекция 14. Модели на основе декодера трансформера
