Тематика курса относится к области обработки данных алгоритмами, содержание которых адаптивно по отношению к наборам обрабатываемых ими данных. В последнее десятилетие данное направление получило существенное развитие, поскольку, с одной стороны, появились мощные и относительно недорогие вычислительные системы, а с другой – стали доступны большие массивы данных, на которых можно проводить тренировку. В результате удалось добиться серьезных успехов в задачах, связанных, прежде всего, с распознаванием изображений, что вызвало взрывной интерес к теме искусственного интеллекта, рост числа специалистов в этой области и попытки применения разработанных методов в самых разных областях науки и техники, где также был достигнут существенный прогресс. В настоящее время методы машинного обучения нашли свое применение в торговле, логистике, рекламе, недвижимости, экономике и финансах, бухучете, сельском хозяйстве, биотехнологиях, строительстве, образовании, здравоохранении и других областях.
В рамках курса планируется дать слушателям представление о разнообразных методах машинного обучения и степени их применимости для задач разного рода, а также показать возможности практического применения предлагаемых методов.
Список всех тем лекций
Лекция 1. Введение в машинное обучение. Задачи, подходы, возможности и проблемы.
Источники информации
Предмет изучения: ИИ и МО
Причины прогресса
Классификация задач МО
Практическая часть: признаки распознавания текста, изображений
Глубокое МО - построение признаков
Линейная регрессия и классификация
Алгоритм решения
Лекция 2. Библиотеки Python, используемые для машинного обучения. Практическое занятие.
Google Colaboratory - облачный сервис на среде Jupyter Notebook
Библиотека Pandas - работа с таблицами
Создание, чтение и запись таблиц
Индексирование, выборка и присваивание значений
Группировка, сортировка, комбинирование
Типы данных и работа с пропущенными значениями
Seaborn и matplotlib - библиотеки для визуализации данных
Лекция 3. Байесовский классификатор. Метод максимального правдоподобия. Априорная и апостериорная информация.
Проверка статистических гипотез
Принятие решений в бинарной ситуации, при нескольких возможных исходах
Байесовский подход
Наблюдения параметра на фоне гауссового шума
Метод моментов и метод максимального правдоподобия
Лекция 4. Линейные методы регрессии и классификации.
Разбор задачи на проверку статистических гипотез
Схема постановки и решения задач обучения с учителем
Феномен Рунге
Гиперпараметры
Задачи линейной регрессии и линейной бинарной классификации
Решение задачи линейной регрессии
Вероятностный подход к задаче линейной регрессии и классификации
Лекция 5. Метрические методы регрессии и классификации.
Разбор теории предыдущих лекций на практике
Примеры задач
Классификация объектов по соседям
Метод k ближайших соседей (kNN)
Сравнение с линейным классификатором
Примеры ядер
Лекция 6. Метод опорных векторов.
Задача линейной бинарной классификации
Метод опорных векторов
Условия Каруша-Куна-Таккера
Двойственная задача, её решение
Часто используемые ядра
SVM регрессия и метрические методы
Лекция 7. Многомерная линейная и нелинейная регрессия. Градиентные методы.
Линейная регрессия
Метод наименьших квадратов
Метод главных компонент
Нелинейная регрессия
порядка
Лекция 8. Критерии оценки качества моделей. Логические закономерности.
Критерии качества в задачах бинарной классификации
Синтез правил на основе выбранных семейств
Критерии информативности правил
Решающие деревья
Плюсы и минусы
Лекция 9. Ансамбли алгоритмов. Беггинг и бустинг.
Метод рандомизации алгоритмов
Рандомный лес - частный случай беггинга
Градиентный бустинг
Нелинейные ансамбли алгоритмов
Смесь алгоритмов
Лекция 10. Искусственные нейронные сети. Базовые архитектуры и методы обучения.
Ограниченность единственного нейрона
Метод обратного распространения
Выбор функции активации
Оптимальное прореживание
Начальная инициализация параметров
Светоточные и остаточные нейронные сети
Лекция 11. Нейронные сети для распознавания цифр. Задачи обучения без учителя. Часть 1.
Нейронные сети для распознавания цифр
Нейронные сети для распознавания цифр: аугментация
Нейронные сети в задачах обучения без учителя
Лекция 12. Задачи обучения без учителя. Часть 2.
Автокодировщики
Самообучение
Векторные представления текста
Лекция 13. Работа с временными рядами.
Стандартные процессы
Линейные инвариантные по времени системы
Единичные корни
Модель APПCC (ARIMA) и СAPПCC (SARIMA)
Нейросетевые методы прогнозирования
Лекция 14. Обучение с подкреплением.
