Генеративное глубокое обучение. Творческий потенциал нейронных сетей
Генеративное моделирование — одна из самых обсуждаемых тем в области искусственного интеллекта. Машины можно научить рисовать, писать и сочинять музыку. Вы сами можете посадить искусственный интеллект за парту или мольберт, для этого достаточно познакомиться с самыми актуальными примерами генеративных моделей глубокого обучения: вариационные автокодировщики, генеративно-состязательные сети, модели типа кодер-декодер и многое другое.
Дэвид Фостер делает понятными и доступными архитектуру и методы генеративного моделирования, его советы и подсказки сделают ваши модели более творческими и эффективными в обучении. Вы начнете с основ глубокого обучения на базе Keras, а затем перейдете к самым передовым алгоритмам.
- Разберитесь с тем, как вариационные автокодировщики меняют эмоции на фотографиях
- Создайте сеть GAN с нуля
- Освойте работу с генеративные моделями генерации текста
- Узнайте, как генеративные модели помогают агентам выполнять задачи в рамках обучения с подкреплением
- Изучите BERT, GPT-2, ProGAN, StyleGAN и многое другое.
Дэвид Фостер делает понятными и доступными архитектуру и методы генеративного моделирования, его советы и подсказки сделают ваши модели более творческими и эффективными в обучении. Вы начнете с основ глубокого обучения на базе Keras, а затем перейдете к самым передовым алгоритмам.
- Разберитесь с тем, как вариационные автокодировщики меняют эмоции на фотографиях
- Создайте сеть GAN с нуля
- Освойте работу с генеративные моделями генерации текста
- Узнайте, как генеративные модели помогают агентам выполнять задачи в рамках обучения с подкреплением
- Изучите BERT, GPT-2, ProGAN, StyleGAN и многое другое.
Жас шектеулері: 16+
Құқық иегері: Питер
Баспа: Питер
Аудармашылар: Андрей Киселев, Евгений Матвеев
Қағаз беттер: 530
Дәйексөздер74
Рассказ и описание модели — это обычный прием объяснения одного и того же с двух точек зрения
Если вы решите использовать BatchNormalization перед Activation, то запомнить порядок вам поможет мнемоническое сокращение BAD (BatchNormalization, Activation затем Dropout)!
Функция плотности вероятности (или просто функция плотности), p(x), отображает точку x из выборочного пространства в число от 0 до 1.
Сөреде16
1 829 кітап
813
277 кітап
767
24 кітап
112
58 кітап
65
42 кітап
62
