Курс посвящен рассмотрению современных адаптивных методов анализа данных, т.е. таких методов, которые в работе с данными опираются не на априорные знания об исследуемом объекте и заранее разработанные модели, а исключительно на свойства самих данных, описывающих объект. Подобные алгоритмы обучаются на примерах, что делает их похожими на живые системы, изучение которых и привело к возникновению большинства рассматриваемых алгоритмов. Подобный подход позволяет с успехом решать задачи прогнозирования, оценки, классификации (распознавания), кластеризации данных из самых разнообразных областей человеческой деятельности: от науки и техники до экономики и бизнеса, от естественных до гуманитарных областей знания. Именно по этой причине массовый интерес к подобным технологиям, возникший к середине 90-х годов после получения множества ценных результатов, как в развитии самих алгоритмов, так и в их использовании, не спадает уже многие годы.
Список всех тем лекций
Занятие 1 (лекция). Введение в нейронные сети.
Организационная часть
Организационная часть
Предмет курса
Плохо формализуемые задачи
Примеры задач, решаемых с помощью ИНС
Аппроксимационные методы и их место
Типология задач, решаемых методами МО
Использование нейронной сети (метода МО)
Закон Мура
Технические требования к ИНС
Уровни взаимодействия интеллекта с окружающим миром
Добыча данных, машинное обучение, искусственный интеллект
Многослойный персептрон
Теорема Колмогорова
Три волны интереса к нейронным сетям
Вопросы
Занятие 2 (лекция). Основы машинного обучения. Базовые алгоритмы машинного обучения.
Приветствие
Стандартная структура данных для машинного обучения
Методы оценки качества решения для задач регрессии
Методы оценки качества решения для задач классификации
Недообучение и переобучение
Линейная регрессия
Логистическая регрессия
Метод опорных векторов
Метод К ближайших соседей
Дерево решений
Градиентный бустинг
Занятие 3 (лекция). Алгоритм обратного распространения ошибки. Многослойные персептроны.
Приветствие
Алгоритм обратного распространения ошибки
Режимы обучения
Модификация алгоритма обратного распространения ошибки
Проблема переобучения
Алгоритмы прореживания (регуляризации)
Контроль степени переученности
Оценки оптимального числа нейронов в скрытом слое
Варианты многослойного персептрона
Выбор оптимальных параметров сети
Инициализация весов
Рекуррентные сети
Глубокие нейронные сети
Особенности многослойного персептрона
Занятие 4 (лекция). Нейронные сети на основе РБФ. Вероятностные сети и сети с общей регрессией. Сети и самоорганизующиеся карты Кохонена.
Приветствие
Нейронная сеть радиальных базисных функций
Нейронная сеть с общей регрессией
Вероятностная нейронная сеть
Нейронная сеть с общей регрессией
Особенности алгоритмов НСОР и ВНС
Самоорганизующаяся сеть Кохонена
Самоорганизующаяся карта Кохонена
Компрессия изображений с помощью сетей Кохонена
Особенности алгоритма Кохонена
Занятие 5 (лекция). Нейронные сети Хопфилда. Нейронные сети Хэмминга. Машина Больцмана.
Приветствие
Система атомов
Нейронная сеть Хопфилда
Емкость памяти
Алгоритм работы с классической сетью Хопфилда
Вопросы от аудитории
Практическое применение
Нейронная сеть Хэмминга
Машина Больцмана
Вопросы от аудитории
Занятие 6 (практикум). Сети с обратным распространением ошибки.
Организационная часть
Введение в работу с программным обеспечением
Задача (прямоугольники)
Технический обзор
Задача (исключающее или)
Задача (три окружности)
Задача (две спирали)
Технический обзор
Работа программы при большом количестве классов
Демонстрация работы рекуррентных сетей
Занятие 7 (лекция). Глубокие нейронные сети. Свёрточные нейронные сети.
Приветствие
Проблемы обучения многослойных сетей
Проблемы обучения многослойных сетей Вопросы от аудитории
Машинное обучение и глубокое обучение
Распознавание изображений: свёрточные нейронные сети
Вопросы от аудитории
Слой нормировки
Пример сверточной сети
Реализации сверточных нейронных сетей
Стандартные архитектуры нейронных сетей
Масштабная инвариантность
Применение глубоких нейронных сетей
Занятие 8 (практикум). Нейронные сети Кохонена. Нейронные сети с общей регрессией.
Организационная часть
Нейронная сеть с общей регрессией: две параболы
Нейронная сеть с общей регрессией: три окружности
Вопросы от аудитории
НСОР
Вопросы от аудитории
Сеть Кохонена
Вопросы от аудитории
Пример 2
Задача коммивояжера
Сеть Кохонена
Занятие 9 (лекция). Кодирование и нормировка данных. Анализ главных компонент. Оценка значимости входов.
Приветствие
Подготовка и преобразование данных
Кодирование категориальных переменных
Кодирование ординальных переменных
Устранение пропусков в данных
Нормировка входов и выходов
Вопросы от аудитории
Выбеливание входов
Правило обучения Ойа
Анализ главных компонент
Практическая часть (линейный и нелинейный анализ главных компонент)
Методы, основанные на линейном анализе главных компонент
Методы отбора существенных признаков
Оценка значимости входов
Формирование входов методом ортогонализации
Отбор входов алгоритмами оптимизации
Общая методика отбора переменных
Последовательность применения методов изучения незнакомых задач
"Случайные" переменные
Вопросы от аудитории
Занятие 1. (практикум). Основы языка Python и приёмы работы с ним.
Организационная часть
История Python
Окружения и визуализация
Стек библиотек SciPy
Обзор инструмента Colab
I/O
Функции
Классы
Модули
Занятие 1. (лекция). Фрактальная размерность данных и алгоритмы ее определения. Анализ временных рядов.
Приветствие
Симметричные фракталы
Корреляционная размерность
Пример оценки фрактальной размерности реальных данных методом Box-counting
Проблемы оценки фрактальной размерности реальных данных
Вопросы от аудитории
Хаотическая динамика
Методы исследования временных рядов
R/S анализ
Вопросы от аудитории
Анализ временных рядов
Формирование набора данных для обучения
Формирование пространства признаков
Разделение временного ряда на компоненты
Занятие 1. (практикум). Задача линейной регрессии. Метод главных компонент.
Организационная часть
Задача линейной регрессии
Метод главных компонент
Занятие 1. (лекция). Спектральные методы обработки сигналов. Вейвлет анализ. Вейвлет нейронные сети.
Приветствие
Фурье-анализ
Спектральные методы обработки сигналов
Оконное преобразование Фурье
Дискретное вейвлет-преобразование
Примеры вейвлетов
Применение вейвлетов для анализа сигналов
Применение вейвлетов: компрессия данных
Универсальная аппроксимация
Занятие 1. (практикум). Введение в PyTorch.
Организационная часть
Библиотека PyTorch
Библиотека PyTorch
Занятие 1. (лекция). Кластер-анализ. Метод группового учета аргументов.
Приветствие
Алгоритм кластеризации К средних (K-Means)
Алгоритм кластеризации DBSCAN
Растущий нейронный газ
Сравнение алгоритмов кластеризации на модельных данных
Проблемы алгоритмов кластеризации
Оценка качества кластеризации
Линейная регрессия
Принцип внешнего дополнения
Многоразрядный алгоритм МГУА
Критерии отбора в МГУА
Спектр алгоритмов МГУА
Особенности МГУА
Литература по МГУА
Занятие 1. (лекция). Нечёткая логика. Нейро-нечёткие системы.
Приветствие
Бинарная логика
Нечёткая логика
Вопросы от аудитории
Алгоритмы нечёткого вывода
Нечёткая логика второго типа
Проектирование и работа контроллера
Адаптивная сеть, реализующая контроллер на нечёткой логике
Пример: классификация измерений полупроводникового газового сенсора
Вопросы от аудитории
Занятие 1. (лекция). Генетические алгоритмы. Многоагентные методы.
Занятие 1. (практикум). Анализ текстов Python.
Занятие 1. (лекция). Генетическое программирование.
Занятие 2. (практикум). Задачи оптимизации.
Занятие 2. (практикум). Библиотека cv2. Библиотека torchvision.
Занятие 2. (лекция). Генеративные нейросетевые системы. Комбинированные алгоритмы. Ансамбли (комитеты) предикторов.
Занятие 2. (практикум). Знакомство с языком программирования R.
Занятие 2. (лекция). Обучение с подкреплением. Решение обратных задач в физике с помощью методов машинного обучения.