Обратите внимание, что этот пост предназначен для моих собственных образовательных целей.

Неконтролируемое обучение → мы собираемся начать отсюда.

И распространяется на обучение с самоконтролем → мы в основном будем говорить о видео.

Очень известный ppt → неконтролируемое обучение — это пирог → как данные используются для каждого метода обучения. (может быть оскорбительным для людей из RL). (но это означает, что → мы собираемся генерировать данные → это формирование вознаграждения → так мало из такого большого количества данных). (обучение без учителя → без вмешательства человека → у нас есть данные → но нет меток → как мы можем это обобщить?). (но тем не менее, узнать много вещей).

Классическое контролируемое обучение.

Мы хотим смоделировать данные → нет меток → генеративные модели → мы хотим изучить распределения. (отлично).

Почему? → мы делаем большую часть нашего обучения таким образом → мы рассуждаем → наблюдаем и учимся → хорошие черты → учимся быстрее. (учиться без ярлыка).

Изучение распределения данных → изучение P(x).

До глубокого обучения → у нас был бы набор функций → проецирование данных с высокой яркостью на более низкую → для каждой функции. (не может сделать в линейном классификаторе → но может сделать это в 4D-пространстве). (кластеризация → обучение без учителя).

Есть другое предположение.

Гладкость, кластеризация и многообразие → где живут данные. (аналогичные данные близки друг к другу в многообразии). (они имеют некоторые структуры).

Даже в высоком измерении.

Даже на изображении 10*10 → мы видим, что большая часть данных изображения будет лежать на коллекторе. (есть некоторая структура, которую мы можем использовать). (довольно редкое разделение). (аналогично аудио и тексту).

Автокодировщики → — хороший способ изучить это многообразие. (зачем использовать это? → поиск изображений или что-то подобное → может быть приложением). (очень интересный метод).

Обучите кодировщик и декодер → и, возможно, также сделайте некоторые прогнозы. (почему этот подход полезен? → первая часть → обучение без учителя → хороший набор функций изучается → с помощью обучения без учителя).

Итак, мы можем сделать AE → затем использовать кодировщик для предсказания.

Теперь мы можем сделать то же самое для видео → ISA → видео как объем → и провели некоторый анализ и многое другое → и изучили функции → похоже на обнаружение границ.

Супер крутая идея → эти функции были намного лучше.

Теперь более свежие работы → модели кодера и декодера. (глубокое обучение применяется к видеоданным). (поэтому нам нужно меньше данных → и даже получить лучшие результаты с неконтролируемой предварительной подготовкой).

Другие виды обучения → какое самоконтролируемое обучение можно проводить?

Предиктивное обучение → это обучение без учителя.

Цель состоит в том, чтобы изучить очень хорошие функции. (есть одна часть, чтобы → восстановить видео или предсказать будущие кадры)

Реконструкцию можно увидеть выше. (немного размыто).

И предсказание будущего → динамика улавливается. (цель - изучить представление).

Состязательная тренировка → дает гораздо лучшие результаты. (состязательный проигрыш очень помогает).

Подход LSTM к этому.

Ссылка

  1. https://www.youtube.com/watch?v=5vAStAKszhk&feature=youtu.be&t=33s