Каскадный автокодировщик начальный этап работы выполняет как обычный кодировщик. Он обучается кодированию входных данных в небольшой скрытый слой путем минимизации ошибки преобразования. Скрытый слой теперь рассматривается как вход для нового кодировщика, который пытается кодировать первый слой скрытых нейронов в слой меньшего размера (второй слой скрытых нейронов). Это может быть продолжено произвольным образом. Часто полученные в процессе обучения веса кодирования используются как начальные значения для решения задач регрессии или классификации в глубокой архитектуре нейронной сети.
• Шумоподавляющий автокодировщик (denoising autoencoder) получает входные данные с шумами вместо исходных входных данных и пытается этот шум подавить. Для минимизации ошибки преобразования функция стоимости больше не используется. Теперь попытаемся минимизировать отклонение изображения после шумоподавления от исходного. Интуитивно мы все еще можем воспринимать фотографию даже с царапинами или с нанесенной маркировкой. Если машина тоже видит сквозь шумы входные данные, то, возможно, она лучше понимает их. Модели шумоподавления, как было показано, лучше улавливают характерные признаки изображения.
• Вариационный автокодировщик (variational autoencoder) может создавать новые естественные изображения, непосредственно используя скрытые переменные. Представим, что кодируется изображение мужчины, представленного 100-мерным вектором, а затем изображение женщины как другой 100-мерный вектор. Можно взять среднее двух векторов, пропустить через декодировщик и получить некое изображение, визуально представляющее человека, являющегося чем-то средним между мужчиной и женщиной. Эта генеративная способность вариационного автокодировщика была унаследована у вероятностных моделей, или байесовских сетей