20 сентября — РУКОВОДСТВО (пробник/статистика/обзор линейной алгебры/вопросы)
26 сентября — Классификация 2: вероятностных классификаторов: классно-условные гауссианы,
наивный байесовский метод, логистическая регрессия, нейронные сети для классификации
(примечания [ps.gz]
[pdf])
4 октября: Опубликовано задание 1 (классификация)
4 октября — Регрессия 1: постоянная модель , линейные модели, обобщенные аддитивные модели
(например, RBF), локально взвешенная регрессия,
многослойные персептроны/нейронные сети
(примечания [ps.gz]
[pdf])
11 октября — Целевые функции и оптимизация: поверхности ошибок , весовое пространство, градиентный спуск, стохастический градиент,
сопряженные градиенты, методы второго порядка, выпуклость, принудительные ограничения
(примечания [ps.gz]
[pdf])
11 октября — ОБУЧЕНИЕ (вопросы A1)
18 октября: задание 1 должно быть выполнено в начале урока
18 октября — Регрессия 2 и контролируемые смеси: задача распределения кредитов, нейронные сети, радиальные базисные сети,
теорема колмогорова,
алгоритм обратного распространения для эффективного вычисления градиентов,
смеси экспертов, кусочные модели
(примечания [ps. gz]
[pdf])
25 октября: опубликовано задание 2 (регрессия)
25 октября — Самостоятельное обучение 1:
Деревья и кластеризация K-средние, иерархическая кластеризация (агломеративная и разделительная),
деревья максимального правдоподобия, оптимальная древовидная структура
(примечания [ps.gz]
[pdf])
1 ноября — Неконтролируемое обучение 2:
Модели смесей и алгоритм EM: отсутствующих данных, скрытые переменные,
Неравенство Дженсена, нижняя граница предельной вероятности,
интерпретация свободной энергии, вывод,
(примечания [ps.gz]
[pdf])
1 ноября — ОБУЧЕНИЕ (вопросы A2)
8 ноября: срок выполнения задания 2
8 ноября — Самостоятельное обучение 3: Модели с непрерывными латентными переменными, факторный анализ (вероятностный)
PCA, смеси факторных анализаторов, анализ независимых компонентов
(примечания [ps.gz]
[pdf])
15 ноября: Задание 3 опубликовано
15 ноября — Модели временных рядов авторегрессионные/марковские модели, агрегированные модели Маркова,
скрытые марковские модели, профильные HMM
(примечания [ps. gz]
[pdf])
22 ноября — Управление мощностями: обобщение и переобучение, никаких теорем о бесплатном обеде,
вопросы высокой размерности. методов контроля мощности: уменьшение веса,
ранняя остановка, перекрестная проверка, усреднение модели, введение в байесианство
(примечания [ps.gz]
[pdf])
22 ноября — ОБУЧЕНИЕ (вопросы A3)
29 ноября: Задание 3 должно быть сдано в начале урока.
29 ноября — Методы метаобучения: укладка, упаковка, повышение
(примечания [ps.gz]
[pdf])
2 декабря (НЕОБЫЧНОЕ ВРЕМЯ, 10:00, комната UC163) — Методы ядра: трюк с ядром, машины опорных векторов, перцептроны ядра,
разреженность, контроль емкости, двойные проблемы
(примечания [ps.gz]
[pdf])
6 декабря — БЕЗ ЗАНЯТИЙ (перенесено на 2 декабря)
19 декабря — проекты должны быть отправлены по электронной почте до 9am Отправить вложения или действительный URL-адрес, указывающий на ваш отчет. Только ПОСТСКРИПТ или PDF. НЕ ПРЕДСТАВЛЯЙТЕ СЛОВО, HTML ИЛИ ДРУГОЙ ФОРМАТ
ФАЙЛЫ.
19 декабря — все показания должны быть завершены к 9 утра. Онлайн-чтение
Дополнительные темы, на которые у нас может быть или не быть времени
[
Главная |
Информация о курсе |
Расписание лекций / Примечания |
Учебник/Чтения |
Задания/Проект |
Компьютеры |
]
CSC2515 — Машинное обучение || www.cs.toronto.edu/~roweis/csc2515/
CSC2515F: лекции
Предварительное расписание лекций
12 сентября — Машинное обучение: Введение в машинное обучение, обобщение и мощность
(примечания [ps.gz]
[pdf])
19 сентября — РУКОВОДСТВО (пробник/статистика/обзор линейной алгебры/вопросы)
25 сентября — Классификация 2: вероятностных классификаторов: классно-условные гауссианы,
наивный байесовский метод, логистическая регрессия, нейронные сети для классификации
(примечания [ps. gz]
[pdf])
3 октября: Опубликовано задание 1 (классификация)
3 октября — Регрессия 1: постоянная модель , линейные модели, обобщенные аддитивные модели
(например, RBF), локально взвешенная регрессия,
многослойные персептроны/нейронные сети
(примечания [ps.gz]
[pdf])
10 октября — Целевые функции и оптимизация: 9поверхности ошибок 0017, весовое пространство, градиентный спуск, стохастический градиент,
сопряженные градиенты, методы второго порядка, выпуклость, принудительные ограничения
(примечания [ps.gz]
[pdf])
10 октября — ОБУЧЕНИЕ (вопросы A1)
17 октября: задание 1 должно быть выполнено в начале урока
17 октября — Регрессия 2 и контролируемые смеси: задача распределения кредитов, нейронные сети, радиальные базисные сети,
теорема колмогорова,
алгоритм обратного распространения для эффективного вычисления градиентов,
смеси экспертов, кусочные модели
(примечания [ps.gz]
[pdf])
24 октября: опубликовано задание 2 (регрессия)
24 октября — Самостоятельное обучение 1:
Деревья и кластеризация K-средних, иерархическая кластеризация (агломеративная и разделительная),
деревья максимального правдоподобия, оптимальная древовидная структура
(примечания [ps. gz]
[pdf])
31 октября — Неконтролируемое обучение 2:
Модели смесей и алгоритм EM: отсутствующих данных, скрытые переменные,
Неравенство Дженсена, нижняя граница предельной вероятности,
интерпретация свободной энергии, вывод,
(примечания [ps.gz]
[pdf])
31 октября — ОБУЧЕНИЕ (вопросы A2)
7 ноября: срок выполнения задания 2
7 ноября — Обучение без учителя 3: Непрерывные модели скрытых переменных, факторный анализ (вероятностный)
PCA, смеси факторных анализаторов, анализ независимых компонентов
(примечания [ps.gz]
[pdf])
14 ноября: Задание 3 опубликовано
14 ноября — Модели временных рядов авторегрессионные/марковские модели, агрегированные модели Маркова,
скрытые марковские модели, профильные HMM
(примечания [ps.gz]
[pdf])
21 ноября — Управление мощностями: обобщение и переобучение, никаких теорем о бесплатном обеде,
вопросы высокой размерности. методов контроля мощности: уменьшение веса,
ранняя остановка, перекрестная проверка, усреднение модели, введение в байесианство
(примечания [ps.