Этот прием известен как аддитивное сглаживание, в соответствии с которым оценка максимального правдоподобия (MLE) для параметров будет определяться так
Генеративная модель описывает, как генерируется набор данных, с точки зрения вероятностной модели. Используя эту модель, можно генерировать новые данные
Отдельные разделы теории будут более понятны в контексте, включающем людей, действия и эмоции, а не в контексте таких довольно абстрактных понятий, как, допустим, нейронные сети, обратное распространение или функции потерь.
Чего не могу воссоздать, того не понимаю.
Ричард Фейнман
Идея преобразования точки из скрытого пространства обратно в исходную область очень распространена в генеративном моделировании, поскольку дает возможность манипулировать векторами в скрытом пространстве и тем самым изменять высокоуровневые характеристики изображений в исходной области (
Автокодировщики также можно использовать для очистки искаженных изображений от шума, потому что в процессе обучения кодировщик узнает, что бессмысленно пытаться фиксировать случайный шум в скрытом пространстве. В
Автокодировщики
Этот рассказ описывает аналог автокодировщика — двухкомпонентной нейронной сети, включающей (рис. 3.4):
• сеть кодировщика, которая сжимает входные многомерные данные в вектор меньшего размера;
• сеть декодировщика, которая разворачивает данный вектор представления обратно в исходные данные.
В процессе обучения сеть определяет веса для кодировщика и декодировщика
Свертка осуществляется путем попиксельного умножения фильтра на фрагмент изображения и последующего суммирования результатов. Чем ближе фрагмент изображения соответствует фильтру, тем больше результат, и наоборот, чем меньше фрагмент соответствует фильтру, тем меньше результат.
Чем больше размер пакета, тем стабильнее результат вычисления градиента, но каждый шаг обучения выполняется медленнее. Если для вычисления градиента на каждом шаге обучения использовать весь набор данных, то потребуется слишком много времени и вычислительных ресурсов, поэтому размер пакета обычно выбирается в диапазоне от 32 до 256.
Исходные данные — массив с изображениями.
Метки классов в формате прямого кодирования.
Параметр batch_size определяет, сколько наблюдений будет передаваться в сеть на каждом шаге обучения.
Параметр epochs определяет, сколько раз сеть будет просматривать полный комплект обучающих данных.
Если shuffle = True, то пакеты обучающих данных будут перемешиваться случайным образом перед каждым шагом обучения.