Блог Machine Learning | OTUS >
🎃 Готовимся к Хэллоуину с Отус!
Скидки -15% до 24.10 на все курсы октября и подписку →
Выбрать курс
+7 499 938-92-02
Посты
Функции потерь Дискриминатора: стабилизация обучения

ML_Deep_14.06_SITE.png

В первом посте я в общих чертах рассказал о том, что такое генеративные состязательные сети. Идея заставить соревноваться две нейронные сети выглядит очень просто и красиво, однако при реализации для конкретных задач обязательно возникают трудности. В этот раз я расскажу о том, как немножко изменить функции потерь так, чтобы стабилизировать процесс обучения.

Несколько слов про генеративные состязательные сети

MLDeep_29_05_Site.png

На самом пике волне хайпа искусственного интеллекта уверенно держатся генеративные состязательные сети. Не все знают, но генеративные модели появились ещё в 18-ом веке, когда преподобный Томас Байес сформулировал своё знаменитое правило связавшее «приорное» и «постериорное» распределения.

Популярное
Сегодня тут пусто
Открытый вебинар 29.10 в 20.00
Как стать Full-stack QA: тестируем API и автоматизируем тесты на JavaScript →