Нейронные сети на Python, глубокое машинное обучение и задачи Deep Learning инженера
Бесплатный интенсив по HighLoad!
«Индексы и репликация: best practices и подводные камни». Займите место ➞
Подробнее

Курсы

Специализации Курсы в разработке Подготовительные курсы
+7 499 110-61-65
Специальная цена

Нейронные сети на Python

Курс о нейронных сетях, глубоком обучении и их применении для решения задач CV, NLP и обучения с подкреплением
Подойдет ли мне этот курс?

Длительность

5 месяцев

Начало

29 апреля

Занятия

Сб 10:00, Ср 20:00

Общая стоимость

50 000 ₽ 40 000 ₽

В месяц

12 500 ₽

В кредит:

12500 ₽ в месяц

Хочу дешевле
Общая стоимость
50 000 ₽ 40 000 ₽
В месяц: 12 500 ₽
В кредит: 40000 ₽
в месяц
Продолжительность
5 месяцев, 4 академ. часа в неделю
Сб 10:00, Ср 20:00
Начало занятий
29 апреля
Что даст вам этот курс


  • В первых двух модулях курса мы разбираем всю необходимую теорию для дальнейшего погружения в глубокое обучение, изучаем основные фреймворки (PyTorch, Keras, Tensorflow) для разработки нейронных сетей и решаем классические задачи компьютерного зрения, обработки естественных языков и обучения с подкреплением.
  • Третий модуль посвящен современным подходам к решению классических задач компьютерного зрения и обработки естественных языков. Мы узнаем, как от предсказательных моделей перейти к генеративным, научимся работать с нестандартными представлениями данных и решать задачи в условиях недостаточной разметки.
  • В четвертом модуле обсуждаются подходы к решению задач, традиционно считавшихся “человеческими”. Мы поговорим о фантазии, подражании, использовании собственного опыта и неструктурируемых данных.







Научитесь работать с нейронными сетями с использованием фреймворков PyTorch, Tensorflow, Keras


Изучите теорию и практику по таким важным направлениям Deep Learning как Computer Vision, NLP, обучение с подкреплением

Самый современный материал про глубокое обучение

Программа подготовлена признанным экспертом по глубокому обучению


Онлайн-интенсив «Обучение с подкреплением на примере игры Крестики-нолики», 11 марта в 20:00
Знакомимся с reinforcement learning, рассматриваем, как применять машинное обучение для игр, и учимся с помощью Machine Learning играть в крестики-нолики.
Ведет
Артур
Кадурин
Предыдущий открытый вебинар
Нейронные сети — как дети: их можно научить чему угодно. Но нужно помнить и о трудностях, сопровождающих каждого родителя: неправильные методы обучения, недостаток хороших примеров или несоответствие архитектуры ребёнка поставленным задачам могут привести к непредсказуемым результатам.
Артур Кадурин
Преподаватель курса
Нейронные сети — как дети: их можно научить чему угодно. Но нужно помнить и о трудностях, сопровождающих каждого родителя: неправильные методы обучения, недостаток хороших примеров или несоответствие архитектуры ребёнка поставленным задачам могут привести к непредсказуемым результатам.
Артур Кадурин
Преподаватель курса
Преподаватели
Артур Кадурин
CEO Insilico Taiwan и Chief AI Officer Insilico Medicine
Михаил Степанов
Jet Infosystems
Роман Захаров
Senior data scientist в Райффайзен банке
В Mail.ru был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возгавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

Соавтор книги про глубокое машинное обучение: https://www.piter.com/product/glubokoe-obuchenie

Научные публикации:
The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/
druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000
3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756

Руководитель программы
Работаю в отделе машинного обучения компании Jet Infosystems.
Занимаюсь проектами по агрегации отзывов, по анализу и оптимизации производства крупных промышленных компаний.
В data science пришел из промышленного программирования на Python, где разрабатывал код для "толстого клиента" в проекте по созданию "умных окон".

Ранее учил талантливых школьников программированию, машинному обучению и программированию учебных моделей спутников.

Область интересов: data science, математика, космос и Python.
Мой взгляд на программирование: с великой силой приходит великая ответственность.

Преподаватель
Работал в различных проектах связанных с телеком, видеонаблюдением, бухгалтерской сфере, юридической и банковской индустрии.

Область интересов: python, deep learning, nlp, ner, anomaly detection, cv

Преподаватель
Артур
Кадурин
Михаил
Степанов
Роман
Захаров
Преподаватели
Артур Кадурин
CEO Insilico Taiwan и Chief AI Officer Insilico Medicine
В Mail.ru был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возгавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

Соавтор книги про глубокое машинное обучение: https://www.piter.com/product/glubokoe-obuchenie

Научные публикации:
The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/
druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000
3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756

Руководитель программы
Михаил Степанов
Jet Infosystems
Работаю в отделе машинного обучения компании Jet Infosystems.
Занимаюсь проектами по агрегации отзывов, по анализу и оптимизации производства крупных промышленных компаний.
В data science пришел из промышленного программирования на Python, где разрабатывал код для "толстого клиента" в проекте по созданию "умных окон".

Ранее учил талантливых школьников программированию, машинному обучению и программированию учебных моделей спутников.

Область интересов: data science, математика, космос и Python.
Мой взгляд на программирование: с великой силой приходит великая ответственность.

Преподаватель
Роман Захаров
Senior data scientist в Райффайзен банке
Работал в различных проектах связанных с телеком, видеонаблюдением, бухгалтерской сфере, юридической и банковской индустрии.

Область интересов: python, deep learning, nlp, ner, anomaly detection, cv

Преподаватель
Отзывы
Андрей
Разбаков
Нейронные сети — это не просто, но очень интересно. Практика и теория, подробное объяснение принципов и моделей — это все тут в изобилии.
Помимо базовых архитектур и их особенностей курс открыл для меня удивительный мир состязательных генеративных сетей. В столь короткий срок получить такие глубокие и обширные знания в этой области я бы точно самостоятельно не смог.
Читать целиком
Андрей
Разбаков
Нейронные сети — это не просто, но очень интересно. Практика и теория, подробное объяснение принципов и моделей — это все тут в изобилии.
Помимо базовых архитектур и их особенностей курс открыл для меня удивительный мир состязательных генеративных сетей. В столь короткий срок получить такие глубокие и обширные знания в этой области я бы точно самостоятельно не смог.
Читать целиком
Необходимые знания
  • Знание линейной алгебры, начала анализа и теории вероятностей.
  • Владение языком программирования Python на уровне Junior (знать программирование на Python на базовом уровне необходимо, так как модели машины реализуются на Python).
Подготовительный курс

  • Основные возможности языка Python

  • Создание сайтов на Django

  • Библиотеки для анализа данных

  • Общение в чате с преподавателем

  • Подготовка к курсам "Web-разработчик на Python" и "Разработчик Python"

Записаться
Процесс обучения
Образовательный процесс на курсе "Нейронные сети на Python" проходит в формате вебинаров (онлайн). Слушателям предлагаются к выполнению домашние задания, которые позволят применить на практике полученные во время вебинаров знания. По каждому домашнему заданию преподаватель даёт развернутый фидбек. При написании кода используется Python.
Преподаватель находится в едином коммуникационном пространстве с группой, т. е. слушатель может задавать преподавателю уточняющие вопросы по материалам лекций и домашних заданий.

Интенсивность: 2 онлайн-вебинара в неделю по 2 часа каждый и от 1 до 4 часов на домашнюю работу.
Программа обучения
Модуль 1
Первые шаги
Модуль 2
Основные архитектуры и методы обучения нейронных сетей
Модуль 3
Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
Модуль 4
Нейронные сети для слабоформализуемых задач
Модуль 5
Проектная работа
Первые шаги
В этом модуле мы познакомимся:
i. с основными задачами которые можно решить с помощью нейронных сетей
ii. фреймворками, позволяющими реализовывать различные нейросетевые архитектуры в соответствии с задачей
iii. и методами, лежащими в основе обучения искусственных нейронных сетей.
Тема 1: Искусственный интеллект и другие задачи которые можно решать с помощью нейронных сетей
участники узнают что такое искусственные нейроны для того, чтобы понимать из чего состоят искусственные нейронные сети, познакомятся с историей развития искусственного интеллекта и актуальными задачами, которые стоят перед учеными в области Data Science
29 апреля, 20:00 — 21:30
Домашние задания: 1
1 Введение в PyTorch
1. Используя скрипт salt.py посчитать хэш от своего имени. Суть задания подтвердить запуск докера.
2. Сделать свой transform, переводящий данные в распределение N(0, 1) и выложить код в Slack. Проверить код 3х коллег и отписаться в ветку к выложенному коду.
Тема 2: Стохастический градиентный спуск и метод обратного распространения
на занятии мы разберем математическую основу обучения нейронной сети и базовые идеи работы с данными
2 мая, 10:00 — 11:30
Тема 3: Первая нейронная сеть на PyTorch
участники познакомятся с фреймворком PyTorch и научатся реализовывать простейшие нейронные сети
6 мая, 20:00 — 21:30
Домашние задания: 1
1 Логистическая регрессия и переобучение
1. В файле log_reg.ipynb изменить код таким образом, чтобы решить ту же самую задачу, а именно обучить логистическую регрессию, на двумерных данных
2. Добиться от классифкатора на minst переобучения за счет изменения архитектуры и гиперпараметров.
Тема 4: Переобучение и регуляризация нейронных сетей
участники узнают что такое переобучение нейронной сети, и как с ним бороться для повышения эффективности своих моделей
9 мая, 10:00 — 11:30
Тема 5: Первая нейронная сеть на Tensorflow
участники научатся реализовывать нейронные сети с помощью одного из самых популярных фреймворков
13 мая, 20:00 — 21:30
Домашние задания: 1
1 Основы tenosrlow и tenosrboard
Цель: Будут освоены базовые операции для сохранения логов в формате tensorboard на практических примерах. Д/з помогает понять, как использование tensorboard позволяет анализировать результаты эксперимента и находить причины, почему нейронная сеть не учится. Также в д/з обсуждаются темы, связанные с необходимостью нормализации и правильной подготовки данных, а так же важности выбора правильной архитектуры даже для простых моделей.
Тема 6: Взрыв и затухание градиентов
участники узнают в чем заключаются проблемы взрыва и затухания градиентов и познакомятся с методами борьбы позволяющими обучать более глубокие нейронные сети
16 мая, 10:00 — 11:30
Тема 7: Погружение в Tensorflow
на занятии мы разберем продвинутые возможности фреймворка Tensorflow
20 мая, 20:00 — 21:30
Тема 8: Адаптивные методы градиентного спуска
участники научатся применять современные модификации метода градиентного спуска для ускорения обучения нейронных сетей
23 мая, 10:00 — 11:30
Основные архитектуры и методы обучения нейронных сетей
В этом модуле мы узнаем:
i. Какие нейросетевые архитектуры существуют
ii. Какие методы позволяют обучать глубокие нейронные сети.
ii. Как применять нейросети в задачах компьютерного зрения, обработки естественных языков и обучения с подкреплением.
Тема 1: Основные архитектуры нейронных сетей: Автокодировщики
разбор базовых архитектур мы начнем с универсального фреймворка кодировщик-декодировщик и базовой архитектуры в этом фреймворке — автокодировщик. Участники узнают как создавать автокодировщики и смогут модифицировать основную структуру под конкретную задачу.
27 мая, 20:00 — 21:30
Домашние задания: 1
1 Автокодировщик
0. Обучить многослойный автокодировщик:
а. отрисовать классы в латентном представлении автокодировщика с двумерным латентным слоем
б. сделать tSNE над 32-мерным латентным слоем

1. Обучить шумный автокодировщик:
а. Добавить ко входным данным нормальный шум
б. Сделать отражение части изображения
в. Отрисовать карты активаций нейронов первого слоя
Тема 2: Практическое занятие на TensorFlow. Разреженный Автокодировщик
на занятии участники решат задачи удаления шума с изображения и разреживания представления данных.
30 мая, 10:00 — 11:30
Тема 3: Основные архитектуры нейронных сетей: Сверточные сети
на этом занятии мы научимся использовать наиболее популярную архитектуру нейронной сети для решения задач компьютерного зрения, а также операцию обратную свертке для реализации сверточных автокодировщиков.
3 июня, 20:00 — 21:30
Домашние задания: 1
1 Сверточные сети
Необязательное домашнее задание
1. Реализовать сверточный автокодировщик
2. Сделать оптимизацию изображения под активацию сверточных нейронов классификатора
3. Сделать оптимизацию изображения под активацию сверточных нейронов автокодировщика
Тема 4: Практическое занятие на Keras. Transfer Learning.
Участники познакомятся на практике с одним из ключевых методов решения задач компьютерного зрения.
6 июня, 10:00 — 11:30
Тема 5: Основные архитектуры нейронных сетей: Рекуррентные сети
на примере задачи классификации коротких текстов, участники познакомятся еще с одной важнейшей архитектурой — рекуррентной нейронной сетью. Помимо обработки естественных языков мы рассмотрим общий подход к работе с последовательными данными с помощью рекуррентной сети.
10 июня, 20:00 — 21:30
Домашние задания: 1
1 Создаем Википедию
1. Используя подход аналогичный torchvision, сделать свой класс датасета.
Необязательное д/з:
1. Поэкспериментировать с разными архитектурами рекурренток: тип ячеек, слои, нормализация, методы оптимизации
Тема 6: Практическое занятие на PyTorch. Генерация Википедии.
на этом занятии мы перейдем от предсказания свойств текста к порождению собственных текстов.
13 июня, 10:00 — 11:30
Домашние задания: 1
1 Создаем Википедию
1. Используя подход аналогичный torchvision, сделать свой класс датасета.
Необязательное д/з:
1. Поэкспериментировать с разными архитектурами рекурренток: тип ячеек, слои, нормализация, методы оптимизации
Тема 7: Введение в обучение с подкреплением
участники научатся применять методы классического обучения с подкреплением для таких задач как A/B тестирование или игра в шахматы. Мы разберемся с тем кто такие многорукие бандиты и что такое TD-обучение.
17 июня, 20:00 — 21:30
Тема 8: Практическое занятие. Крестики-нолики.
на примере игры в крестики-нолики участники сравнят решение с помощью нейронной сети с “табличными” методами обучения с подкреплением.
20 июня, 10:00 — 11:30
Домашние задания: 1
1 Deep-Tac-Toe
Цель: Опираясь на табличное обучение с подкреплением реализовать и обучить нейронную Q-функцию.
Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
В этом модуле мы разберем:
i. Современные архитектуры сверточных и рекуррентных нейронных сетей.
ii. Задачи сегментации и детекции объектов на изображении
iii. Как устроено внимание и почему нейронные сети могут что-то забыть.

Тема 1: Современные сверточные сети. Блоки и шорткаты.
на этом занятии участники познакомятся с историей развития современных сверточных сетей, узнают что позволило сделать их по-настоящему глубокими и как это повлияло на область компьютерного зрения.
Архитектуры: AlexNet, GoogLeNet, Inception, ResNet.
24 июня, 20:00 — 21:30
Тема 2: Современные рекуррентные сети. Внимание.
тема посвящена тому, как “научить” нейросеть обращать внимание на наиболее важную информацию на изображении или в тексте. Мы узнаем, как использовать эту способность, чтобы искать логически связанные блоки информации, чем это поможет при машинном переводе, поиске ответов на вопросы, аннотации изображений.
Архитектуры: Attention, Seq2Seq, PointerNetworks
27 июня, 10:00 — 11:30
Тема 3: Metric-learning и обучение без примеров
мы научимся отображать объекты в пространство с метрикой и использовать такое представление для поиска похожих объектов и решения задачи классификации при отсутствии данных.
Архитектуры: DSSM
1 июля, 20:00 — 21:30
Тема 4: Современные рекуррентные сети. Трансформеры.
мы разберемся, как можно использовать только attention-слои для Natural Language Inference, а также разберемся, как трнсформер позволяет создать эмбеддинги, учитывающими контекст при кодировании многозначных слов.
Архитектуры: Attention is all you need(transformer), ELMo, BERT
4 июля, 10:00 — 11:30
Тема 5: Современные сверточные сети. Transfer learning и fine-tuning
участники узнают что делать если данных недостаточно для обучения глубокой нейронной сети, как использовать знания из уже обученной нейронной сети и подстраивать такую сеть к конкретной задаче.
8 июля, 20:00 — 21:30
Домашние задания: 1
1 Transfer Learning vs Fine Tuning
Цель: Используя датасет занятия (https://dropmefiles.com/u1iLk) реализовать подходы Transfer Learning и Fine Tuning с использованием VGG16 модели на Pytorch
Тема 6: Катастрофическое забывание.
архитектуры: https://arxiv.org/pdf/1612.00796.pdf
11 июля, 10:00 — 11:30
Тема 7: Глубокие сверточные сети. Сегментация
на занятии мы разберемся, как при помощи нейронной сети сегментировать изображение, какие для этого есть архитектуры, что за принципы лежат в основе UNet и DeepLab.
Архитектуры: UNet, DeepLab
15 июля, 20:00 — 21:30
Тема 8: Глубокие сверточные сети. Детекция.
мы разберем принципы работы нейронных сетей для детекции объектов: от эволюцию от первых “чисто” нейросетевых алгоритмов до современных архитектур, работающих за “один взгляд” - YOLO, SSD
Архитектуры: R-CNN, Faster-RCNN, YOLO, Single Shot Detector
18 июля, 10:00 — 11:30
Нейронные сети для слабоформализуемых задач
В этом модуле мы научимся:
i. Решать задачи с необычной структурой данных или отсутствием данных.
ii. Создавать новые объекты и определять их “реалистичность”
iii. Имитировать поведение людей и разбираться в их скрытых мотивах
Тема 1: Генеративные состязательные сети
на занятии мы разберем, как нейронная сеть учится обманывать другую нейронную сеть, и как от этого они обе становятся лучше, а мы получаем генератор качественных данных
Архитектуры: GAN (Images)
22 июля, 20:00 — 21:30
Домашние задания: 1
1 GANs
1. Сделать условный GANs — класс подается на вход Генератору и Дискриминатору
2. Сделать Adversarial Autoencoder — автокодировщик с лоссом от Дискриминатора вместо dKL
Тема 2: Вариационный и состязательный автокодировщики
25 июля, 10:00 — 11:30
Домашние задания: 1
1 Вариационный автокодировщик
Реализовать VAE в pytorch для MNIST датасета. Визуализировать полученный результат.
Тема 3: Доменная адаптация и условная генерация
мы разберем подходы к обучению нейронных сетей на многомодальных данных, способы целенаправленного забывания информации и применение состязательного фреймворка для “честной” условной генерации.
Архитектуры: Conditional GAN
29 июля, 20:00 — 21:30
Домашние задания: 1
1 Условная генерация
Обучить две версии CAAE — "частную" и "нечестную", преобразовать с их помощью исходные данные в латентное представление и обучить 3 классификатора — один на исходных данных и два на кодах, полученных из "честного" и "нечестного" CAAE. Сравнить качество классификации.
Необязательная часть:
Сделать перенос стиля с одной цифры на другие с помощью "честного" CAAE
Тема 4: Генеративные модели для текстов
на этом занятии мы познакомимся с методом Professor forcing, научимся использовать идеи обучения с подкреплением для генерации текстов, а также, узнаем как пропускать градиент через дискретные объекты с помощью репараметризации
Архитектуры: Professor forcing, ORGAN, Gumbel trick
1 августа, 10:00 — 11:30
Тема 5: Обратное обучение с подкреплением
на этом занятии мы разберем как имитировать поведение эксперта, что делать если награды неизвестны и можно ли назначать награды нейронной сетью.
5 августа, 20:00 — 21:30
Тема 6: Глубокое обучение с подкреплением
участники узнают как же Google удалось победить чемпиона мира в игру го и что еще можно сделать таким же способом.
Архитектуры: AlphaGo
8 августа, 10:00 — 11:30
Тема 7: Сверточные и рекуррентные сети на графах
мы разберем архитектуры позволяющие работать с данными имеющими графовую структуру.
Архитектуры: MPNN, GCN, DNC
12 августа, 20:00 — 21:30
Тема 8: Сферические свертки и множества точек
участники узнают как применять непрерывные свертки для данных имеющих пространственную структуру.
Архитектура: SchNet, PointNet
15 августа, 10:00 — 11:30
Проектная работа
В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


Работа над проектом проходит поэтапно:
1. Выбор тематики.
2. Сбор и подготовка соответствующих данных.
3. Построение и обучение генеративной модели


Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.
Тема 1: консультация по проектной работе
обзор выпускной работы. Постановка задачи. Предоставление необходимых для выполнения выпускной работы материалов
19 августа, 20:00 — 21:30
Домашние задания: 1
1 Выпускная работа
Цель: В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики. Работа над проектом проходит поэтапно: 1. Выбор тематики. 2. Сбор и подготовка соответствующих данных. 3. Построение и обучение генеративной модели Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации. Примеры тем проекта: имплементация универсального класса оптимизатора, обобщающего различные методы градиентного спуска для PyTorch; состязательная нейронная сеть для порождения изображений рукописного текста с заданным стилем; генеративная модель повышения разрешения изображений; рекуррентная состязательная seq2seq-архитектура для порождения стихотворений на основе обычного текста.
Тема 2: консультация по проектной работе
22 августа, 10:00 — 11:30
Тема 3: защита проектной работы
26 августа, 20:00 — 21:30
Выпускной проект
В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


Работа над проектом проходит поэтапно:
1. Выбор тематики.
2. Сбор и подготовка соответствующих данных.
3. Построение и обучение генеративной модели


Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.


Примеры тем проекта:

  • имплементация универсального класса оптимизатора, обобщающего различные методы градиентного спуска для PyTorch;

  • состязательная нейронная сеть для порождения изображений рукописного текста с заданным стилем;

  • генеративная модель повышения разрешения изображений;

  • рекуррентная состязательная seq2seq-архитектура для порождения стихотворений на основе обычного текста.

Прошедшие открытые вебинары по курсу
Открытый вебинар — это настоящее занятие в режиме он-лайн с преподавателем курса, которое позволяет посмотреть, как проходит процесс обучения. В ходе занятия слушатели имеют возможность задать вопросы и получить знания по реальным практическим кейсам.
Регуляризация или ограничения, которые делают нас лучше
Артур Кадурин
День открытых дверей
20 ноября 2019 года в 20:00
Для доступа к прошедшим мероприятиям необходимо пройти входное тестирование
Возможность пройти вступительное тестирование повторно появится только через 2 недели
Результаты тестирования будут отправлены вам на e-mail, указанный при регистрации.
Тест рассчитан на 30 минут, после начала тестирования отложить тестирование не получится!
Пройти вступительное тестирование
После обучения вы

  • получите материалы по всем пройденным занятиям (презентации, видеозаписи вебинаров, примеры кодов на Python);

  • станете специалистом в такой сфере, как глубокое машинное обучение;

  • получите сертификат об окончании курса;

  • повысите свои знания до уровня Middle/Senior;

  • получите приглашение пройти собеседование в компаниях-партнёрах (в случае успешного освоения программы на курсе «Нейронные сети на Python»).

Дата выдачи сертификата: 3 ноября 2020 года
Ваш сертификат

онлайн-образование

Сертификат №0001

Константин Константинопольский

Успешно закончил курс «Нейронные сети на Python»
Выполнено практических заданий: 16 из 16

Общество с ограниченной ответственностью “Отус Онлайн-Образование”

Город:
Москва

Генеральный директор ООО “Отус Онлайн-Образование”
Виталий Чибриков

Лицензия на осуществление образовательной деятельности
№ 039825 от 28 декабря 2018 года.

онлайн-образование

Сертификат №0001

Константин Константинопольский

Успешно закончил курс «Нейронные сети на Python»
Выполнено практических заданий: 16 из 16

Общество с ограниченной ответственностью “Отус Онлайн-Образование”

Город:
Москва

Генеральный директор ООО “Отус Онлайн-Образование”
Виталий Чибриков

Лицензия на осуществление образовательной деятельности
№ 039825 от 28 декабря 2018 года.
Общая стоимость
50 000 ₽ 40 000 ₽
В месяц: 12 500 ₽
В кредит: ₽ в месяц
Продолжительность
5 месяцев
Начало занятий
29 апреля