Обратите внимание, что этот пост предназначен для моих собственных образовательных целей.
Неконтролируемое обучение → мы собираемся начать отсюда.
И распространяется на обучение с самоконтролем → мы в основном будем говорить о видео.
Очень известный ppt → неконтролируемое обучение — это пирог → как данные используются для каждого метода обучения. (может быть оскорбительным для людей из RL). (но это означает, что → мы собираемся генерировать данные → это формирование вознаграждения → так мало из такого большого количества данных). (обучение без учителя → без вмешательства человека → у нас есть данные → но нет меток → как мы можем это обобщить?). (но тем не менее, узнать много вещей).
Классическое контролируемое обучение.
Мы хотим смоделировать данные → нет меток → генеративные модели → мы хотим изучить распределения. (отлично).
Почему? → мы делаем большую часть нашего обучения таким образом → мы рассуждаем → наблюдаем и учимся → хорошие черты → учимся быстрее. (учиться без ярлыка).
Изучение распределения данных → изучение P(x).
До глубокого обучения → у нас был бы набор функций → проецирование данных с высокой яркостью на более низкую → для каждой функции. (не может сделать в линейном классификаторе → но может сделать это в 4D-пространстве). (кластеризация → обучение без учителя).
Есть другое предположение.
Гладкость, кластеризация и многообразие → где живут данные. (аналогичные данные близки друг к другу в многообразии). (они имеют некоторые структуры).
Даже в высоком измерении.
Даже на изображении 10*10 → мы видим, что большая часть данных изображения будет лежать на коллекторе. (есть некоторая структура, которую мы можем использовать). (довольно редкое разделение). (аналогично аудио и тексту).
Автокодировщики → — хороший способ изучить это многообразие. (зачем использовать это? → поиск изображений или что-то подобное → может быть приложением). (очень интересный метод).
Обучите кодировщик и декодер → и, возможно, также сделайте некоторые прогнозы. (почему этот подход полезен? → первая часть → обучение без учителя → хороший набор функций изучается → с помощью обучения без учителя).
Итак, мы можем сделать AE → затем использовать кодировщик для предсказания.
Теперь мы можем сделать то же самое для видео → ISA → видео как объем → и провели некоторый анализ и многое другое → и изучили функции → похоже на обнаружение границ.
Супер крутая идея → эти функции были намного лучше.
Теперь более свежие работы → модели кодера и декодера. (глубокое обучение применяется к видеоданным). (поэтому нам нужно меньше данных → и даже получить лучшие результаты с неконтролируемой предварительной подготовкой).
Другие виды обучения → какое самоконтролируемое обучение можно проводить?
Предиктивное обучение → это обучение без учителя.
Цель состоит в том, чтобы изучить очень хорошие функции. (есть одна часть, чтобы → восстановить видео или предсказать будущие кадры)
Реконструкцию можно увидеть выше. (немного размыто).
И предсказание будущего → динамика улавливается. (цель - изучить представление).
Состязательная тренировка → дает гораздо лучшие результаты. (состязательный проигрыш очень помогает).
Подход LSTM к этому.
Ссылка