Введение в вероятностный язык построения моделей машинного обучения

В мини-курсе дается введение в вероятностный язык построения вероятностных моделей машинного обучения. Байесовский подход к теории вероятностей позволяет строить сложные вероятностные модели из простых и хорошо изученных, используя последние как своеобразные кирпичики. Несмотря на все многообразие вероятностного моделирования, в его основе лежит не так много идей и целью курса является знакомство с ними. В частности, в курсе будут рассмотрены алгоритмы байесовского выбора модели, аналитического и вариационного байесовского вывода, обучения с латентными переменными. Изложение всех базовых методов будет сопровождаться примерами. Будет показано, как знание вероятностного моделирования позволяет получить необычные свойства даже у простейших алгоритмов машинного обучения типа линейной и логистической регрессии. В конце курса будут рассмотрены более сложные примеры т.н. графических моделей, позволяющих моделировать зависимости между сотнями тысяч переменных и находящих широкое применение в задачах компьютерного зрения, обработке сигналов, анализе социальных сетей и пр.

Прочтения курса

Курс по выбору