Нейронные сети на Python, глубокое машинное обучение и задачи Deep Learning инженера

Курсы

Курсы в разработке Подготовительные курсы
Работа в компаниях Компаниям Блог +7 499 110-61-65
Специальная цена

Нейронные сети на Python

Курс о нейронных сетях, глубоком обучении и их применении для решения задач CV, NLP и обучения с подкреплением
Подойдет ли мне этот курс?

Длительность

5 месяцев

Начало

30 ноября

Занятия

Сб 10:00, Ср 20:00

Общая стоимость

50 000 ₽ 35 000 ₽

В месяц

12 500 ₽

В кредит:

12500 ₽ в месяц

Хочу дешевле
Общая стоимость
50 000 ₽ 35 000 ₽
В месяц: 12 500 ₽
В кредит: 35000 ₽
в месяц
Продолжительность
5 месяцев, 4 академ. часа в неделю
Сб 10:00, Ср 20:00
Начало занятий
30 ноября
Что даст вам этот курс


  • В первых двух модулях курса мы разбираем всю необходимую теорию для дальнейшего погружения в глубокое обучение, изучаем основные фреймворки (PyTorch, Keras, Tensorflow) для разработки нейронных сетей и решаем классические задачи компьютерного зрения, обработки естественных языков и обучения с подкреплением.
  • Третий модуль посвящен современным подходам к решению классических задач компьютерного зрения и обработки естественных языков. Мы узнаем, как от предсказательных моделей перейти к генеративным, научимся работать с нестандартными представлениями данных и решать задачи в условиях недостаточной разметки.
  • В четвертом модуле обсуждаются подходы к решению задач, традиционно считавшихся “человеческими”. Мы поговорим о фантазии, подражании, использовании собственного опыта и неструктурируемых данных.







Научитесь работать с нейронными сетями с использованием фреймворков PyTorch, Tensorflow, Keras


Изучите теорию и практику по таким важным направлениям Deep Learning как Computer Vision, NLP, обучение с подкреплением

Самый современный материал про глубокое обучение

Программа подготовлена признанным экспертом по глубокому обучению


Всё о курсе «Нейронные сети на Python», 20 ноября в 20:00
День Открытых Дверей — отличная возможность задать все вопросы по курсу, узнать подробнее о программе, особенностях онлайн-формата, навыках, компетенциях и перспективах, которые ждут выпускников после обучения. Также преподаватель расскажет о себе и своём профессиональном опыте. Поэтому если есть вопрос, запишитесь на онлайн-трансляцию и задайте его в прямом эфире!
Ведет
Артур
Кадурин
Предыдущий день открытых дверей
Нейронные сети — как дети: их можно научить чему угодно. Но нужно помнить и о трудностях, сопровождающих каждого родителя: неправильные методы обучения, недостаток хороших примеров или несоответствие архитектуры ребёнка поставленным задачам могут привести к непредсказуемым результатам.
Артур Кадурин
Преподаватель курса
Нейронные сети — как дети: их можно научить чему угодно. Но нужно помнить и о трудностях, сопровождающих каждого родителя: неправильные методы обучения, недостаток хороших примеров или несоответствие архитектуры ребёнка поставленным задачам могут привести к непредсказуемым результатам.
Артур Кадурин
Преподаватель курса
Преподаватели
Дмитрий Музалевский
Lead Data Scientist в Koerber Digital
Артур Кадурин
CEO Insilico Taiwan и Chief AI Officer Insilico Medicine
Михаил Степанов
Jet Infosystems
Более 7 лет опыта в области анализа данных и машинного обучения. Опыт работы и проектов в различных индустриях: телеком, онлайн-ритейл, банковская сфера, финтех и медтех.

В настоящий момент работает в компании Koerber Digital GmbH, Берлин. Занимает позицию Lead Data Scientist и ведет работу команды, занимающейся аналитикой больших объемов данных и машинным обучением для производственных предприятий и B2B компаний.

Образование: магистратура МГТУ им.Баумана "Компьютерный анализ и интерпретация данных"; бакалавриат НИУ МАИ "Математические методы в экономике и маркетинге".

Преподаватель

В Mail.ru был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возгавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

Соавтор книги про глубокое машинное обучение: https://www.piter.com/product/glubokoe-obuchenie

Научные публикации:

  • The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/

  • druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000

  • 3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756




  • Руководитель программы

    Михаил работает в отделе машинного обучения компании Jet Infosystems. Занимается проектами по агрегации отзывов, по анализу и оптимизации производства крупных промышленных компаний. В data science пришел из промышленного программирования на Python, где разрабатывал код для "толстого клиента" в проекте по созданию "умных окон".

    Ранее учил талантливых школьников программированию, машинному обучению и программированию учебных моделей спутников.

    Область интересов: data science, математика, космос и Python.
    Мой взгляд на программирование: с великой силой приходит великая ответственность.



    Преподаватель
    Дмитрий
    Музалевский
    Артур
    Кадурин
    Михаил
    Степанов
    Преподаватели
    Дмитрий Музалевский
    Lead Data Scientist в Koerber Digital
    Более 7 лет опыта в области анализа данных и машинного обучения. Опыт работы и проектов в различных индустриях: телеком, онлайн-ритейл, банковская сфера, финтех и медтех.

    В настоящий момент работает в компании Koerber Digital GmbH, Берлин. Занимает позицию Lead Data Scientist и ведет работу команды, занимающейся аналитикой больших объемов данных и машинным обучением для производственных предприятий и B2B компаний.

    Образование: магистратура МГТУ им.Баумана "Компьютерный анализ и интерпретация данных"; бакалавриат НИУ МАИ "Математические методы в экономике и маркетинге".

    Преподаватель
    Артур Кадурин
    CEO Insilico Taiwan и Chief AI Officer Insilico Medicine

    В Mail.ru был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

    С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возгавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

    В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

    Соавтор книги про глубокое машинное обучение: https://www.piter.com/product/glubokoe-obuchenie

    Научные публикации:

  • The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/

  • druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000

  • 3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756




  • Руководитель программы
    Михаил Степанов
    Jet Infosystems

    Михаил работает в отделе машинного обучения компании Jet Infosystems. Занимается проектами по агрегации отзывов, по анализу и оптимизации производства крупных промышленных компаний. В data science пришел из промышленного программирования на Python, где разрабатывал код для "толстого клиента" в проекте по созданию "умных окон".

    Ранее учил талантливых школьников программированию, машинному обучению и программированию учебных моделей спутников.

    Область интересов: data science, математика, космос и Python.
    Мой взгляд на программирование: с великой силой приходит великая ответственность.



    Преподаватель
    Отзывы
    Андрей
    Разбаков
    Нейронные сети — это не просто, но очень интересно. Практика и теория, подробное объяснение принципов и моделей — это все тут в изобилии.
    Помимо базовых архитектур и их особенностей курс открыл для меня удивительный мир состязательных генеративных сетей. В столь короткий срок получить такие глубокие и обширные знания в этой области я бы точно самостоятельно не смог.
    Читать целиком
    Андрей
    Разбаков
    Нейронные сети — это не просто, но очень интересно. Практика и теория, подробное объяснение принципов и моделей — это все тут в изобилии.
    Помимо базовых архитектур и их особенностей курс открыл для меня удивительный мир состязательных генеративных сетей. В столь короткий срок получить такие глубокие и обширные знания в этой области я бы точно самостоятельно не смог.
    Читать целиком
    Необходимые знания
    • Знание линейной алгебры, начала анализа и теории вероятностей.
    • Владение языком программирования Python на уровне Junior (знать программирование на Python на базовом уровне необходимо, так как модели машины реализуются на Python).
    Процесс обучения
    Образовательный процесс на курсе "Нейронные сети на Python" проходит в формате вебинаров (онлайн). Слушателям предлагаются к выполнению домашние задания, которые позволят применить на практике полученные во время вебинаров знания. По каждому домашнему заданию преподаватель даёт развернутый фидбек. При написании кода используется Python.
    Преподаватель находится в едином коммуникационном пространстве с группой, т. е. слушатель может задавать преподавателю уточняющие вопросы по материалам лекций и домашних заданий.

    Интенсивность: 2 онлайн-вебинара в неделю по 2 часа каждый и от 1 до 4 часов на домашнюю работу.
    Программа обучения
    Модуль 1
    Первые шаги
    Модуль 2
    Основные архитектуры и методы обучения нейронных сетей
    Модуль 3
    Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
    Модуль 4
    Нейронные сети для слабоформализуемых задач
    Модуль 5
    Проектная работа
    Первые шаги
    В этом модуле мы познакомимся:
    i. с основными задачами которые можно решить с помощью нейронных сетей
    ii. фреймворками, позволяющими реализовывать различные нейросетевые архитектуры в соответствии с задачей
    iii. и методами, лежащими в основе обучения искусственных нейронных сетей.
    Тема 1: Искусственный интеллект и другие задачи которые можно решать с помощью нейронных сетей
    участники узнают что такое искусственные нейроны для того, чтобы понимать из чего состоят искусственные нейронные сети, познакомятся с историей развития искусственного интеллекта и актуальными задачами, которые стоят перед учеными в области Data Science
    30 ноября, 10:00 — 11:30
    Лектор: Артур Кадурин
    Домашние задания: 1
    1 Введение в PyTorch
    1. Используя скрипт salt.py посчитать хэш от своего имени. Суть задания подтвердить запуск докера.
    2. Сделать свой transform, переводящий данные в распределение N(0, 1) и выложить код в Slack. Проверить код 3х коллег и отписаться в ветку к выложенному коду.
    Тема 2: Стохастический градиентный спуск и метод обратного распространения
    на занятии мы разберем математическую основу обучения нейронной сети и базовые идеи работы с данными
    7 декабря, 10:00 — 11:30
    Лектор: Дмитрий Музалевский
    Тема 3: Первая нейронная сеть на PyTorch
    участники познакомятся с фреймворком PyTorch и научатся реализовывать простейшие нейронные сети
    11 декабря, 20:00 — 21:30
    Лектор: Артур Кадурин
    Домашние задания: 1
    1 Логистическая регрессия на pyTorch
    В файле log_reg.ipynb изменить код таким образом, чтобы решить ту же самую задачу, а именно обучить логистическую регрессию, на двумерных данных
    Тема 4: Переобучение и регуляризация нейронных сетей
    участники узнают что такое переобучение нейронной сети, и как с ним бороться для повышения эффективности своих моделей
    14 декабря, 10:00 — 11:30
    Лектор: Дмитрий Музалевский
    Домашние задания: 1
    1 Переобучение 1
    Добиться от классифкатора fashionminst переобучения за счет изменения архитектуры и гиперпараметров.
    Тема 5: Первая нейронная сеть на Tensorflow
    участники научатся реализовывать нейронные сети с помощью одного из самых популярных фреймворков
    18 декабря, 20:00 — 21:30
    Лектор: Михаил Степанов
    Тема 6: Взрыв и затухание градиентов
    участники узнают в чем заключаются проблемы взрыва и затухания градиентов и познакомятся с методами борьбы позволяющими обучать более глубокие нейронные сети
    21 декабря, 10:00 — 11:30
    Лектор: Артур Кадурин
    Тема 7: Погружение в Tensorflow
    на занятии мы разберем продвинутые возможности фреймворка Tensorflow
    25 декабря, 20:00 — 21:30
    Лектор: Михаил Степанов
    Тема 8: Адаптивные методы градиентного спуска
    участники научатся применять современные модификации метода градиентного спуска для ускорения обучения нейронных сетей
    28 декабря, 10:00 — 11:30
    Лектор: Артур Кадурин
    Основные архитектуры и методы обучения нейронных сетей
    В этом модуле мы узнаем:
    i. Какие нейросетевые архитектуры существуют
    ii. Какие методы позволяют обучать глубокие нейронные сети.
    ii. Как применять нейросети в задачах компьютерного зрения, обработки естественных языков и обучения с подкреплением.
    Тема 1: Основные архитектуры нейронных сетей: Автокодировщики
    разбор базовых архитектур мы начнем с универсального фреймворка кодировщик-декодировщик и базовой архитектуры в этом фреймворке — автокодировщик. Участники узнают как создавать автокодировщики и смогут модифицировать основную структуру под конкретную задачу.
    11 января, 10:00 — 11:30
    Домашние задания: 1
    1 Автокодировщик
    Обновить формулу KL-дивиргенции в соответствии со слайдами

    Необязательное д/з на поэкспериментировать:
    1. Обучить шумный автокодировщик:
    а. Добавить ко входным данным нормальный шум
    б. Обнулить % случайных пикселей картинки (30-50% должно работать хорошо)
    в. Обнулить левую/правую половину картинки
    Тема 2: Практическое занятие на TensorFlow. Разреженный Автокодировщик
    на занятии участники решат задачи удаления шума с изображения и разреживания представления данных.
    15 января, 20:00 — 21:30
    Тема 3: Основные архитектуры нейронных сетей: Сверточные сети
    на этом занятии мы научимся использовать наиболее популярную архитектуру нейронной сети для решения задач компьютерного зрения, а также операцию обратную свертке для реализации сверточных автокодировщиков.
    18 января, 10:00 — 11:30
    Домашние задания: 1
    1 Сверточные сети
    Необязательное домашнее задание
    1. Реализовать сверточный автокодировщик
    2. Сделать оптимизацию изображения под активацию сверточных нейронов классификатора
    3. Сделать оптимизацию изображения под активацию сверточных нейронов автокодировщика
    Тема 4: Практическое занятие на Keras. Transfer Learning.
    Участники познакомятся на практике с одним из ключевых методов решения задач компьютерного зрения.
    22 января, 20:00 — 21:30
    Тема 5: Основные архитектуры нейронных сетей: Рекуррентные сети
    на примере задачи классификации коротких текстов, участники познакомятся еще с одной важнейшей архитектурой — рекуррентной нейронной сетью. Помимо обработки естественных языков мы рассмотрим общий подход к работе с последовательными данными с помощью рекуррентной сети.
    25 января, 10:00 — 11:30
    Домашние задания: 1
    1 Создаем Википедию
    1. Используя подход аналогичный torchvision, сделать свой класс датасета.
    Необязательное д/з:
    1. Поэкспериментировать с разными архитектурами рекурренток: тип ячеек, слои, нормализация, методы оптимизации
    Тема 6: Практическое занятие на PyTorch. Генерация Википедии.
    на этом занятии мы перейдем от предсказания свойств текста к порождению собственных текстов.
    29 января, 20:00 — 21:30
    Тема 7: Введение в обучение с подкреплением
    участники научатся применять методы классического обучения с подкреплением для таких задач как A/B тестирование или игра в шахматы. Мы разберемся с тем кто такие многорукие бандиты и что такое TD-обучение.
    1 февраля, 10:00 — 11:30
    Домашние задания: 1
    1 Подготовка проекта
    Нужно выбрать тематику проекта и сделать первичное описание:
    1. Формулировка задачи
    2. Предполагаемые методы
    3. Ожидаемый результат
    Тема 8: Практическое занятие. Крестики-нолики.
    на примере игры в крестики-нолики участники сравнят решение с помощью нейронной сети с “табличными” методами обучения с подкреплением.
    5 февраля, 20:00 — 21:30
    Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
    В этом модуле мы разберем:
    i. Современные архитектуры сверточных и рекуррентных нейронных сетей.
    ii. Задачи сегментации и детекции объектов на изображении
    iii. Как устроено внимание и почему нейронные сети могут что-то забыть.

    Тема 1: Современные сверточные сети. Блоки и шорткаты.
    на этом занятии участники познакомятся с историей развития современных сверточных сетей, узнают что позволило сделать их по-настоящему глубокими и как это повлияло на область компьютерного зрения.
    Архитектуры: AlexNet, GoogLeNet, Inception, ResNet.
    8 февраля, 10:00 — 11:30
    Тема 2: Современные сверточные сети. Transfer learning и fine-tuning
    участники узнают что делать если данных недостаточно для обучения глубокой нейронной сети, как использовать знания из уже обученной нейронной сети и подстраивать такую сеть к конкретной задаче.
    12 февраля, 20:00 — 21:30
    Домашние задания: 1
    1 Transfer Learning vs Fine Tuning
    Цель: Используя датасет занятия (https://dropmefiles.com/u1iLk) реализовать подходы Transfer Learning и Fine Tuning с использованием VGG16 модели на Pytorch
    Тема 3: Современные рекуррентные сети. Внимание.
    тема посвящена тому, как “научить” нейросеть обращать внимание на наиболее важную информацию на изображении или в тексте. Мы узнаем, как использовать эту способность, чтобы искать логически связанные блоки информации, чем это поможет при машинном переводе, поиске ответов на вопросы, аннотации изображений.
    Архитектуры: Attention, Seq2Seq, PointerNetworks
    15 февраля, 10:00 — 11:30
    Тема 4: Современные рекуррентные сети. Трансформеры.
    мы разберемся, как можно использовать только attention-слои для Natural Language Inference, а также разберемся, как трнсформер позволяет создать эмбеддинги, учитывающими контекст при кодировании многозначных слов.
    Архитектуры: Attention is all you need(transformer), ELMo, BERT
    19 февраля, 20:00 — 21:30
    Тема 5: Катастрофическое забывание.
    архитектуры: https://arxiv.org/pdf/1612.00796.pdf
    22 февраля, 10:00 — 11:30
    Тема 6: Metric-learning и обучение без примеров
    мы научимся отображать объекты в пространство с метрикой и использовать такое представление для поиска похожих объектов и решения задачи классификации при отсутствии данных.
    Архитектуры: DSSM
    26 февраля, 20:00 — 21:30
    Тема 7: Глубокие сверточные сети. Сегментация
    на занятии мы разберемся, как при помощи нейронной сети сегментировать изображение, какие для этого есть архитектуры, что за принципы лежат в основе UNet и DeepLab.
    Архитектуры: UNet, DeepLab
    29 февраля, 10:00 — 11:30
    Тема 8: Глубокие сверточные сети. Детекция.
    мы разберем принципы работы нейронных сетей для детекции объектов: от эволюцию от первых “чисто” нейросетевых алгоритмов до современных архитектур, работающих за “один взгляд” - YOLO, SSD
    Архитектуры: R-CNN, Faster-RCNN, YOLO, Single Shot Detector
    4 марта, 20:00 — 21:30
    Нейронные сети для слабоформализуемых задач
    В этом модуле мы научимся:
    i. Решать задачи с необычной структурой данных или отсутствием данных.
    ii. Создавать новые объекты и определять их “реалистичность”
    iii. Имитировать поведение людей и разбираться в их скрытых мотивах
    Тема 1: Генеративные состязательные сети
    на занятии мы разберем, как нейронная сеть учится обманывать другую нейронную сеть, и как от этого они обе становятся лучше, а мы получаем генератор качественных данных
    Архитектуры: GAN (Images)
    7 марта, 10:00 — 11:30
    Домашние задания: 1
    1 GANs
    1. Сделать условный GANs — класс подается на вход Генератору и Дискриминатору
    2. Сделать Adversarial Autoencoder — автокодировщик с лоссом от Дискриминатора вместо dKL
    Тема 2: Вариационный и состязательный автокодировщики
    11 марта, 20:00 — 21:30
    Домашние задания: 1
    1 Вариационный автокодировщик
    Реализовать VAE в pytorch для MNIST датасета. Визуализировать полученный результат.
    Тема 3: Доменная адаптация и условная генерация
    мы разберем подходы к обучению нейронных сетей на многомодальных данных, способы целенаправленного забывания информации и применение состязательного фреймворка для “честной” условной генерации.
    Архитектуры: Conditional GAN
    21 марта, 10:00 — 11:30
    Домашние задания: 1
    1 Условная генерация
    Обучить две версии CAAE — "частную" и "нечестную", преобразовать с их помощью исходные данные в латентное представление и обучить 3 классификатора — один на исходных данных и два на кодах, полученных из "честного" и "нечестного" CAAE. Сравнить качество классификации.
    Необязательная часть:
    Сделать перенос стиля с одной цифры на другие с помощью "честного" CAAE
    Тема 4: Генеративные модели для текстов
    на этом занятии мы познакомимся с методом Professor forcing, научимся использовать идеи обучения с подкреплением для генерации текстов, а также, узнаем как пропускать градиент через дискретные объекты с помощью репараметризации
    Архитектуры: Professor forcing, ORGAN, Gumbel trick
    25 марта, 20:00 — 21:30
    Тема 5: Обратное обучение с подкреплением
    на этом занятии мы разберем как имитировать поведение эксперта, что делать если награды неизвестны и можно ли назначать награды нейронной сетью.
    28 марта, 10:00 — 11:30
    Тема 6: Глубокое обучение с подкреплением
    участники узнают как же Google удалось победить чемпиона мира в игру го и что еще можно сделать таким же способом.
    Архитектуры: AlphaGo
    1 апреля, 20:00 — 21:30
    Тема 7: Сверточные и рекуррентные сети на графах
    мы разберем архитектуры позволяющие работать с данными имеющими графовую структуру.
    Архитектуры: MPNN, GCN, DNC
    4 апреля, 10:00 — 11:30
    Тема 8: Сферические свертки и множества точек
    участники узнают как применять непрерывные свертки для данных имеющих пространственную структуру.
    Архитектура: SchNet, PointNet
    8 апреля, 20:00 — 21:30
    Проектная работа
    В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


    Работа над проектом проходит поэтапно:
    1. Выбор тематики.
    2. Сбор и подготовка соответствующих данных.
    3. Построение и обучение генеративной модели


    Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.
    Тема 1: консультация по проектной работе
    обзор выпускной работы. Постановка задачи. Предоставление необходимых для выполнения выпускной работы материалов
    11 апреля, 10:00 — 11:30
    Домашние задания: 1
    1 Выпускная работа
    Цель: В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики. Работа над проектом проходит поэтапно: 1. Выбор тематики. 2. Сбор и подготовка соответствующих данных. 3. Построение и обучение генеративной модели Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации. Примеры тем проекта: имплементация универсального класса оптимизатора, обобщающего различные методы градиентного спуска для PyTorch; состязательная нейронная сеть для порождения изображений рукописного текста с заданным стилем; генеративная модель повышения разрешения изображений; рекуррентная состязательная seq2seq-архитектура для порождения стихотворений на основе обычного текста.
    Тема 2: консультация по проектной работе
    15 апреля, 20:00 — 21:30
    Тема 3: защита проектной работы
    18 апреля, 10:00 — 11:30
    Выпускной проект
    В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


    Работа над проектом проходит поэтапно:
    1. Выбор тематики.
    2. Сбор и подготовка соответствующих данных.
    3. Построение и обучение генеративной модели


    Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.


    Примеры тем проекта:

    • имплементация универсального класса оптимизатора, обобщающего различные методы градиентного спуска для PyTorch;

    • состязательная нейронная сеть для порождения изображений рукописного текста с заданным стилем;

    • генеративная модель повышения разрешения изображений;

    • рекуррентная состязательная seq2seq-архитектура для порождения стихотворений на основе обычного текста.

    Прошедшие открытые вебинары по курсу
    Открытый вебинар — это настоящее занятие в режиме он-лайн с преподавателем курса, которое позволяет посмотреть, как проходит процесс обучения. В ходе занятия слушатели имеют возможность задать вопросы и получить знания по реальным практическим кейсам.
    Регуляризация или ограничения, которые делают нас лучше
    Артур Кадурин
    День открытых дверей
    22 мая в 20:00
    Для доступа к прошедшим мероприятиям необходимо пройти входное тестирование
    Возможность пройти вступительное тестирование повторно появится только через 2 недели
    Результаты тестирования будут отправлены вам на e-mail, указанный при регистрации.
    Тест рассчитан на 30 минут, после начала тестирования отложить тестирование не получится!
    Пройти вступительное тестирование
    После обучения вы

    • получите материалы по всем пройденным занятиям (презентации, видеозаписи вебинаров, примеры кодов на Python);

    • станете специалистом в такой сфере, как глубокое машинное обучение;

    • получите сертификат об окончании курса;

    • повысите свои знания до уровня Middle/Senior;

    • получите приглашение пройти собеседование в компаниях-партнёрах (в случае успешного освоения программы на курсе «Нейронные сети на Python»).

    Дата выдачи сертификата: 4 июня 2020 года
    Ваш сертификат

    онлайн-образование

    Сертификат №0001

    Константин Константинопольский

    Успешно закончил курс «Нейронные сети на Python»
    Выполнено практических заданий: 16 из 16

    Общество с ограниченной ответственностью “Отус Онлайн-Образование”

    Город:
    Москва

    Генеральный директор ООО “Отус Онлайн-Образование”
    Виталий Чибриков

    Лицензия на осуществление образовательной деятельности
    № 039825 от 28 декабря 2018г.

    онлайн-образование

    Сертификат №0001

    Константин Константинопольский

    Успешно закончил курс «Нейронные сети на Python»
    Выполнено практических заданий: 16 из 16

    Общество с ограниченной ответственностью “Отус Онлайн-Образование”

    Город:
    Москва

    Генеральный директор ООО “Отус Онлайн-Образование”
    Виталий Чибриков

    Лицензия на осуществление образовательной деятельности
    № 039825 от 28 декабря 2018г.
    Общая стоимость
    50 000 ₽ 35 000 ₽
    В месяц: 12 500 ₽
    В кредит: ₽ в месяц
    Продолжительность
    5 месяцев
    Начало занятий
    30 ноября