Машинное обучение, часть 2
Санкт-Петербург / весна 2016, посмотреть все семестры

Модули 1-5 были разобраны в курсе осенью 2015 г.

Модуль 6 (Ближайшие соседи)

  • Instance based learning (IBL). Проклятие размерности. Практические аспекты реализации IBL.
  • Обучение метрики (по Brian Kulis).

Модуль 7 (Уменьшение размерности)

  • Обзор методов уменьшения размерности. Johnson-Lindenstrauss Lemma.
  • Выбор свойств (feature selection).
  • Выделение новых свойств: PCA, ICA.
  • Кластерный анализ. Самоорганизующиеся сети Кохоннена.

Модуль 8 (Нейронные сети)

  • Персептронные сети. Обратное распространение ошибки.
  • Сети Хопфилда, Bolzman machine.
  • Обзор глубокого обучения (Deep Learning).

Модуль 9 (Деревья решений и их ансамбли)

  • Деревья решений: ID3/C4.5. CART, забывчивые деревья.
  • Bagging. Случайные леса. Boosting на примере AdaBoost.
  • Gradient Boosting. MatrixNet.

Курс записывался весной 2015 года, материалы прошлого прочтения курса на сайте.

Дата и время Название Место Материалы
12 февраля
18:30–19:50
Instance Based Learning, лекция Таймс, ауд. с белыми досками слайды
19 февраля
18:30–19:50
Обзор методов уменьшения размерности. Feature selection., лекция Таймс, ауд. с белыми досками слайды
26 февраля
18:30–19:50
Обучение метрики, лекция Таймс, ауд. с белыми досками слайды
04 марта
18:30–19:50
Feature extraction, лекция Таймс, ауд. с белыми досками слайды
11 марта
18:30–19:50
Уменьшение размерности: представление, лекция Таймс, ауд. с белыми досками слайды
18 марта
20:00–21:20
Нейронные сети, лекция Таймс, ауд. с белыми досками слайды
25 марта
20:00–21:20
Deep Learning, лекция Таймс, ауд. с белыми досками слайды
01 апреля
20:00–21:20
Деревья решений, лекция Таймс, ауд. с белыми досками слайды
08 апреля
20:00–21:20
Ансамбли деревьев решений, лекция Таймс, ауд. с белыми досками слайды
15 апреля
20:00–21:20
GBDT, лекция Таймс, ауд. с белыми досками слайды