Войти
Информатика 11 лекций
Машинное обучение для решения прикладных задач

Курс посвящен одной из самых передовых областей науки на сегодняшний день - машинному обучению. Слушатели курса познакомятся с основными методами машинного обучения для решения прикладных задач.

Основная цель курса - это изучение основ машинного обучения и инструментов языка Python.

Данный курс является составляющей частью серии курсов по искусственному интеллекту в Московском государственном университете. Цель этой серии курсов — предоставление студентам актуальных и современных знаний в области искусственного интеллекта и в различных областях науки о данных. Курс относится к МФК в области ИИ.

Telegram-канал, в котором будут публиковаться объявления по курсам: https://t.me/msumfk

Список всех тем лекций

Лекция 1. Введение в машинное обучение.
Организационные моменты Тема лекции: введение в машинное обучение Ветви машинного обучения Машинное обучение с учителем Задачи Supervised Learning Задачи Unsupervised Learning Какие бывают признаки? Типы признаков Что такое модель машинного обучения? Постановка задачи машинного обучения Применение машинного обучения Форма отчетности

Лекция 2. Методология машинного обучения.
Тема лекции: методология машинного обучения Обучение алгоритма и оценка его качества Разбиение выборки на train и test Инструменты для отделения тестовой выборки от тренировочной Метод стратификации Разбиение выборки на три части Метод кросс-валидации Оценка качества Предобработка данных Датасеты Работа с моделями Pipeline Завершение

Лекция 3. Машинное обучение с учителем.
Тема лекции: машинное обучение с учителем Решение задачи Обобщенный метрический классификатор Метод k-ближайших соседей Примеры Практический пример подсчета метрики расстояния Задачи регрессии Преимущества и недостатки метрических алгоритмов Реализация алгоритма KNN на Python Декоратор в Python Примеры использования Неправильный выбор K Адаптация метрик Реализация в sklearn Как выбрать K? Завершение

Лекция 4. Линейные модели ML.
Тема лекции: линейные модели ML Линейные модели классификации Проблема оптимизации SVM (support vectors machine, метод опорных векторов) SVM: достоинства и недостатки Логистическая регрессия Обучение модели Алгоритм градиентного спуска Логистическая регрессия: достоинства и недостатки Линейные модели регрессии Матричная запись Подбор параметров Scaling Классификация рукописных цифр Завершение

Лекция 5. Ядерные методы машинного обучения и непараметрической статистики.
Тема лекции: ядерные методы машинного обучения и непараметрической статистики Задача машинного обучения: напоминание Линейная задача классификации Изменение пространства признаков Kernel Trick RBF-ядро Выборка, линейно разделимая с помощью ядра RBF Другие примеры ядер: линейное ядро Полиномиальное ядро Сигмоидальное ядро Пример использования различных ядер Ядра в статистике Kernel Density Estimation (KDE) Завершение

Лекция 6. Решающие деревья.

Лекция 7. Ансамблевые алгоритмы машинного обучения.

Лекция 8. Метрики качества.

Лекция 9. Снижение размерности данных.

Лекция 10. Задача кластеризации.

Лекция 11. Рекомендательные системы.