заметки от Coursera __/
/ | | | _ _ __ _ _ _ _ _ __ _ _ | | | | ‘/ _ \/ / |/ _` | ‘| | | | | || | | | () _ __ \ (| | | | || | __|| _/|_//_,|| __, |
заметки от Coursera/ | MIT MACHINE LEARNING COURSE |___/ Что такое машинное обучение? Артур Сэмюэл описал это как: область исследования, которая дает компьютерам возможность учиться без явного программирования.
Том Митчелл дает более современное определение: «Говорят, что компьютерная программа учится на опыте E в отношении некоторого класса задач T и показателя производительности P, если ее производительность при выполнении задач в T, измеряемая P, улучшается с опытом E. ”
Э = опыт
Т = задача
P = вероятность
В целом, любую проблему машинного обучения можно отнести к одной из двух широких классификаций:
Обучение с учителем и обучение без учителя.
/================================================ ====================\====================Обучение с учителем======= =============================================\=== =========================================/
Когда целевая переменная, которую мы пытаемся предсказать, непрерывна, мы называем проблему обучения проблемой регрессии.
Так что же на самом деле машина узнает из этого метода? Проще говоря, модель изучает функцию f, такую, что f(x) отображается в y. X скажет мне Y. Возьми X, предскажи Y.
Y -> является целевой или надежной переменной. Все это означает, что мы собираемся предсказать, что y является линейной функцией x. Цель линейной регрессии состоит в том, чтобы минимизировать функцию стоимости.
-------------------------------------------- | | |x = input variables/ features| |y = output variables| |m = the number of training examples.| |(x, y) : a training example.| |i = row number in a training example.| || --------------------------------------------
Гипотеза: hθ(x) = θ0 + θ1x
θ = параметры. Чтобы наилучшим образом соответствовать нашим данным, мы должны выбрать такое значение тета, чтобы разница между h(x) и y была минимальной.
ФУНКЦИЯ СТОИМОСТИ: * Как подобрать наилучшую возможную прямую линию к нашим данным. * Мы можем измерить точность нашей функции гипотезы, используя функцию стоимости.
тета-ноль и тета-единица стабилизируют параметры модели.
- Функция ошибки определяется разностью h(x) — y.
- Мы принимаем абсолютную ошибку как квадрат ошибки, потому что некоторые точки находятся выше и ниже линии.
- Чтобы взять ошибку всех точек, мы использовали Суммирование.
- Усредняется, а затем делится на 2, чтобы упростить расчет. На общую ошибку это никак не повлияет.
На октаву:
// принимает среднюю разницу всех результатов гипотезы с входными данными от x и фактическими выходными данными y.
costs = (X * theta - y) .^ 2; J = sum(costs) / (2 * m); Idea: Choose θ0, θ1 so that hθ(x) is close to y for our training examples (x,y).
ГРАДИЕНТНЫЙ СПУСК:
альфа = скорость обучения, которая описывает, насколько большой шаг вы делаете
Производная дает вам наклон линии, касательной к «тета», которая может быть как положительной, так и отрицательной, а производная говорит нам, что мы будем увеличивать или уменьшать «тета». Одновременное обновление означает, что обе тета должны обновляться одновременно.
/ | | /_\ / / |_ _| |_ / __| /_ | / _ | | | | (| | / _ \__ _ | || | | | (__ / _ | | | | () | .` | _|_// __/_/|| |__// __| |__/||_|
Переменная — y — которую вы хотите предсказать, оценивается. Разработайте алгоритм, называемый логистической регрессией, который обладает тем свойством, что выходные данные, предсказания логистической регрессии, всегда находятся между нулем и единицей и не становятся больше единицы или меньше нуля.
Граница принятия решения
Чтобы получить нашу дискретную классификацию 0 или 1, мы можем преобразовать вывод функции гипотезы следующим образом:
hθ(x)≥0.5→y=1 hθ(x)<0.5→y=0
Логистическая регрессия -› для задач классификации
Функция стоимости
Мы не можем использовать ту же функцию стоимости, которую мы используем для линейной регрессии, потому что логистическая функция приведет к тому, что выходные данные будут волнистыми, что приведет к множеству локальных оптимумов. Другими словами, это не будет выпуклой функцией.
Вместо этого наша функция стоимости для логистической регрессии выглядит так:
J(θ)=1m∑i=1mCost(hθ(x(i)),y(i))Cost(hθ(x),y)=−log(hθ(x))Cost(hθ(x),y )=−log(1−hθ(x))если y = 1если y = 0
╔═╗┌─┐┌─┐┬ ┬┌─┐┌─┐┌┬┐┬┌─┐┌┐┌┌─┐ ╠═╣├─┘├─┘│ ││ ├─┤ │ ││ ││││└─┐ ╩ ╩┴ ┴ ┴─┘┴└─┘┴ ┴ ┴ ┴└─┘┘└┘└─┘:
Обнаружение выбросов:
На этот раз цель состоит в том, чтобы найти экземпляры, которые не подчиняются общему правилу — это исключения, информативные в определенных контекстах. Идея состоит в том, что типичные экземпляры обладают общими характеристиками, которые можно просто сформулировать, а экземпляры, не имеющие их, являются нетипичными.
«Все счастливые семьи похожи друг на друга, но каждая несчастливая семья несчастлива по-своему».
В таком случае модель охватывает типичные экземпляры, а любой экземпляр, выходящий за ее пределы, является исключением. Выброс — это экземпляр, который сильно отличается от других экземпляров в выборке. Выброс может указывать на ненормальное поведение системы.
Уменьшение размерности:
Удалите неинформативные функции. Сокращение времени и места на моделях. Простые модели более надежны на небольших наборах данных, их можно обучить на меньшем количестве данных; или при обучении с одинаковым объемом данных они имеют меньшую дисперсию (неопределенность).
Когда данные можно объяснить с помощью меньшего количества функций, у нас есть более простая модель, которую легче интерпретировать. Идеальный набор признаков лучше всего представляет информацию (классификацию или регрессию) в наборе данных с использованием наименьшего числа чисел, и это процесс кодирования.
Активное изучение:
В обучении; очень важно, чтобы учащийся также знал, что он знает и чего он не знает. Когда обученная модель делает прогноз, полезно, если она также может указать свою уверенность в этом прогнозе.
Человек и его символы. Карл Юнг.
Некоторые общие положения необходимы для классификации и уточнения материала, который собирается при изучении многих лиц. За основу может быть выбрана любая общая характеристика.
Аксиома 53: Стабильное данное необходимо для выравнивания данных.
Экстраверт Интроверт
Противостояние двух личностей.
Оба принадлежат к одному и тому же классу = близость Разный класс = противоречия.
- Осознание собственного типа личности.
- Убеждены, что их собственные является единственным правильным типом.
Экстраверт -> Выберет точку зрения мэра. Интроверт --> откажитесь от этого просто потому, что это модно.
Такое недоразумение достаточно просто, потому что значение одного равно нулю значения другого.
Форма, которую принимают сновидения, естественна для бессознательного, потому что материал, из которого они созданы, сохраняется в подсознательном состоянии именно таким образом.
Таким образом, сон не может произвести определенную мысль. Если оно начинает это делать, оно перестает быть сном, потому что переступает порог сознания.
Символы сновидений по большей части являются проявлениями психики, находящейся вне контроля сознательного разума.
Фрейд назвал «архагическими пережитками» — психические формы, присутствие которых ничем нельзя объяснить в собственной жизни индивидуума и которые представляются аборигенными, врожденными и унаследованными формами человеческого разума.
***ПРИМЕЧАНИЕ (ЛРХ НАЗВАЛ НЕКОТОРЫЕ ГЛОБАЛЬНЫЕ МЕНТАЛЬНЫЕ ИСКУССТВЕННЫЕ СТРУКТУРЫ ИМПЛАНТАТАМИ)***
Архетип — это тенденция к формированию таких репрезентаций мотива — репрезентаций, которые могут сильно различаться в деталях, не теряя при этом своего основного паттерна.