Машинное обучение, часть 1
Санкт-Петербург / осень 2014, посмотреть все семестры

Модуль 1 (Введение)

  1. Постановка задачи, классификация видов обучения. Отличия от смежных областей.

  2. Разбор эксперимента «предсказание оценки студента».

  3. Оценка качества обучения.

  4. Некоторые способы построения целевой функции.

Модуль 2 (Переборные методы)

  1. Сэмплирование пространства параметров.

  2. Генетические алгоритмы, Differential evolution.

Модуль 3 (Линейные решения)

  1. Линейная регрессия. Логистическая регрессия. Линейный дискриминантный анализ (LDA) и его вариации.
  2. LASSO, случайные DFT проекции.
  3. Compressed sensing, Elastic net. Обзор имплементаций LASSO.
  4. Метод опорных векторов (SVM).

Модуль 4 (Факторизация)

  1. Collaborative filtering. Регуляризации SVD разложения. Factorization Machines.
  2. LSA. Informational bottleneck. PLSA, LDA.

Модуль 5 (Прямая оптимизация целевой функции)

  1. Обзор методов оптимизации.

  2. Выпуклая оптимизация (по Ю. Е. Нестерову).

Модули 6-9 рассматриваются в продолжении курса весной.

Модуль 6 (Ближайшие соседи)

  • Instance based learning (IBL). Проклятие размерности.

  • Практические аспекты реализации IBL.

  • Обучение метрикам (по Brian Kulis).

Модуль 7 (Уменьшение размерности)

  • Обзор методов уменьшения размерности. Johnson-Lindenstrauss Lemma.
  • Выбор свойств (feature selection).
  • Выделение новых свойств: PCA, ICA.
  • Кластерный анализ. Самоорганизующиеся сети Кохоннена.

Модуль 8 (Нейронные сети)

  • Персептронные сети. Обратное распространение ошибки.
  • Сети Хопфилда, Bolzman machine.
  • Обзор глубокого обучения (Deep Learning).

Модуль 9 (Деревья решений и их ансамбли)

  • Деревья решений: ID3/C4.5. CART, забывчивые деревья.
  • Bagging. Случайные леса. Boosting на примере AdaBoost.
  • Gradient Boosting. MatrixNet.

Видео записи лекций курса можно найти на канале CS центра на YouTube.

Дата и время Название Место Материалы
12 сентября
18:30–19:50
Машинное обучение: начало, лекция Яндекс, Кунсткамера слайдывидео
19 сентября
18:30–19:50
Один эксперимент, лекция Яндекс, Кунсткамера слайдывидео
26 сентября
18:30–19:50
Оценка методов обучения с учителем, лекция Яндекс, Кунсткамера слайдывидео
03 октября
18:30–19:50
Некоторые способы построения целевой функции., лекция Яндекс, Кунсткамера слайдывидео
10 октября
18:30–19:50
Сэмплирование пространства параметров, лекция Яндекс, Кунсткамера слайдывидео
17 октября
18:30–19:50
Генетические алгоритмы, Differential evolution., лекция Яндекс, Кунсткамера слайдывидео
24 октября
18:30–19:50
Линейная регрессия. Логистическая регрессия. Линейный дискриминантный анализ (LDA) и его вариации., лекция Яндекс, Кунсткамера слайдывидео
31 октября
18:30–19:50
LASSO, случайные DFT проекции. , лекция Яндекс, Кунсткамера слайдывидео
07 ноября
18:30–19:50
Compressed sensing, Elastic net. Обзор имплементаций LASSO., лекция Яндекс, Кунсткамера слайдывидео
14 ноября
18:30–19:50
Метод опорных векторов (SVM)., лекция Яндекс, Кунсткамера слайдывидео
21 ноября
18:30–19:50
LSA. Informational bottleneck. PLSA, LDA., лекция Яндекс, Кунсткамера видео
28 ноября
18:30–19:50
Обзор методов оптимизации., лекция Яндекс, Кунсткамера видео
12 декабря
18:30–19:50
Экзамен, лекция Яндекс, Кунсткамера Нет