Курс посвящен одной из самых передовых областей науки на сегодняшний день - машинному обучению. Слушатели курса познакомятся с основными методами машинного обучения для решения прикладных задач.
Основная цель курса - это изучение основ машинного обучения и инструментов языка Python.
Данный курс является составляющей частью серии курсов по искусственному интеллекту в Московском государственном университете. Цель этой серии курсов — предоставление студентам актуальных и современных знаний в области искусственного интеллекта и в различных областях науки о данных. Курс относится к МФК в области ИИ.
Telegram-канал, в котором будут публиковаться объявления по курсам: https://t.me/msumfk
Список всех тем лекций
Лекция 1. Введение в машинное обучение.
Организационные моменты
Тема лекции: введение в машинное обучение
Ветви машинного обучения
Машинное обучение с учителем
Задачи Supervised Learning
Задачи Unsupervised Learning
Какие бывают признаки?
Типы признаков
Что такое модель машинного обучения?
Постановка задачи машинного обучения
Применение машинного обучения
Форма отчетности
Лекция 2. Методология машинного обучения.
Тема лекции: методология машинного обучения
Обучение алгоритма и оценка его качества
Разбиение выборки на train и test
Инструменты для отделения тестовой выборки от тренировочной
Метод стратификации
Разбиение выборки на три части
Метод кросс-валидации
Оценка качества
Предобработка данных
Датасеты
Работа с моделями
Pipeline
Завершение
Лекция 3. Машинное обучение с учителем.
Тема лекции: машинное обучение с учителем
Решение задачи
Обобщенный метрический классификатор
Метод k-ближайших соседей
Примеры
Практический пример подсчета метрики расстояния
Задачи регрессии
Преимущества и недостатки метрических алгоритмов
Реализация алгоритма KNN на Python
Декоратор в Python
Примеры использования
Неправильный выбор K
Адаптация метрик
Реализация в sklearn
Как выбрать K?
Завершение
Лекция 4. Линейные модели ML.
Тема лекции: линейные модели ML
Линейные модели классификации
Проблема оптимизации
SVM (support vectors machine, метод опорных векторов)
SVM: достоинства и недостатки
Логистическая регрессия
Обучение модели
Алгоритм градиентного спуска
Логистическая регрессия: достоинства и недостатки
Линейные модели регрессии
Матричная запись
Подбор параметров
Scaling
Классификация рукописных цифр
Завершение
Лекция 5. Ядерные методы машинного обучения и непараметрической статистики.
Тема лекции: ядерные методы машинного обучения и непараметрической статистики
Задача машинного обучения: напоминание
Линейная задача классификации
Изменение пространства признаков
Kernel Trick
RBF-ядро
Выборка, линейно разделимая с помощью ядра RBF
Другие примеры ядер: линейное ядро
Полиномиальное ядро
Сигмоидальное ядро
Пример использования различных ядер
Ядра в статистике
Kernel Density Estimation (KDE)
Завершение