Нейронные сети на Python, глубокое машинное обучение и задачи Deep Learning инженера

Курсы

Специализации Курсы в разработке Подготовительные курсы
+7 499 110-61-65
Специальная цена

Нейронные сети на Python

Курс о нейронных сетях, глубоком обучении и их применении для решения задач CV, NLP и обучения с подкреплением
Подойдет ли мне этот курс?

Длительность

5 месяцев

Начало

29 апреля

Занятия

Сб 10:00, Ср 20:00

Общая стоимость

50 000 ₽ 40 000 ₽

В месяц

12 500 ₽

В кредит:

12500 ₽ в месяц

Хочу дешевле
Общая стоимость
50 000 ₽ 40 000 ₽
В месяц: 12 500 ₽
В кредит: 40000 ₽
в месяц
Продолжительность
5 месяцев, 4 академ. часа в неделю
Сб 10:00, Ср 20:00
Начало занятий
29 апреля
Что даст вам этот курс


  • В первых двух модулях курса мы разбираем всю необходимую теорию для дальнейшего погружения в глубокое обучение, изучаем основные фреймворки (PyTorch, Keras, Tensorflow) для разработки нейронных сетей и решаем классические задачи компьютерного зрения, обработки естественных языков и обучения с подкреплением.
  • Третий модуль посвящен современным подходам к решению классических задач компьютерного зрения и обработки естественных языков. Мы узнаем, как от предсказательных моделей перейти к генеративным, научимся работать с нестандартными представлениями данных и решать задачи в условиях недостаточной разметки.
  • В четвертом модуле обсуждаются подходы к решению задач, традиционно считавшихся “человеческими”. Мы поговорим о фантазии, подражании, использовании собственного опыта и неструктурируемых данных.







Научитесь работать с нейронными сетями с использованием фреймворков PyTorch, Tensorflow, Keras


Изучите теорию и практику по таким важным направлениям Deep Learning как Computer Vision, NLP, обучение с подкреплением

Самый современный материал про глубокое обучение

Программа подготовлена признанным экспертом по глубокому обучению


Онлайн-интенсив «Обучение с подкреплением на примере игры 'крестики-нолики'», 11 марта в 20:00
На вебинаре вы:

– познакомитесь с reinforcement learning
– узнаете, как применять машинное обучение для игр
– научитесь с помощью ML играть в крестики-нолики
Ведет
Артур
Кадурин
Предыдущий открытый вебинар
Нейронные сети — как дети: их можно научить чему угодно. Но нужно помнить и о трудностях, сопровождающих каждого родителя: неправильные методы обучения, недостаток хороших примеров или несоответствие архитектуры ребёнка поставленным задачам могут привести к непредсказуемым результатам.
Артур Кадурин
Преподаватель курса
Нейронные сети — как дети: их можно научить чему угодно. Но нужно помнить и о трудностях, сопровождающих каждого родителя: неправильные методы обучения, недостаток хороших примеров или несоответствие архитектуры ребёнка поставленным задачам могут привести к непредсказуемым результатам.
Артур Кадурин
Преподаватель курса
Преподаватели
Артур Кадурин
CEO Insilico Taiwan и Chief AI Officer Insilico Medicine
Михаил Степанов
Jet Infosystems
Роман Захаров
Senior data scientist в Райффайзен банке

В Mail.ru был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возгавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

Соавтор книги про глубокое машинное обучение: https://www.piter.com/product/glubokoe-obuchenie

Научные публикации:

  • The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/

  • druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000

  • 3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756




  • Руководитель программы
    Работаю в отделе машинного обучения компании Jet Infosystems.
    Занимаюсь проектами по агрегации отзывов, по анализу и оптимизации производства крупных промышленных компаний.
    В data science пришел из промышленного программирования на Python, где разрабатывал код для "толстого клиента" в проекте по созданию "умных окон".

    Ранее учил талантливых школьников программированию, машинному обучению и программированию учебных моделей спутников.

    Область интересов: data science, математика, космос и Python.
    Мой взгляд на программирование: с великой силой приходит великая ответственность.

    Преподаватель
    Работал в различных проектах связанных с телеком, видеонаблюдением, бухгалтерской сфере, юридической и банковской индустрии.

    Область интересов: python, deep learning, nlp, ner, anomaly detection, cv

    Преподаватель
    Артур
    Кадурин
    Михаил
    Степанов
    Роман
    Захаров
    Преподаватели
    Артур Кадурин
    CEO Insilico Taiwan и Chief AI Officer Insilico Medicine

    В Mail.ru был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

    С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возгавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

    В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

    Соавтор книги про глубокое машинное обучение: https://www.piter.com/product/glubokoe-obuchenie

    Научные публикации:

  • The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/

  • druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000

  • 3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756




  • Руководитель программы
    Михаил Степанов
    Jet Infosystems
    Работаю в отделе машинного обучения компании Jet Infosystems.
    Занимаюсь проектами по агрегации отзывов, по анализу и оптимизации производства крупных промышленных компаний.
    В data science пришел из промышленного программирования на Python, где разрабатывал код для "толстого клиента" в проекте по созданию "умных окон".

    Ранее учил талантливых школьников программированию, машинному обучению и программированию учебных моделей спутников.

    Область интересов: data science, математика, космос и Python.
    Мой взгляд на программирование: с великой силой приходит великая ответственность.

    Преподаватель
    Роман Захаров
    Senior data scientist в Райффайзен банке
    Работал в различных проектах связанных с телеком, видеонаблюдением, бухгалтерской сфере, юридической и банковской индустрии.

    Область интересов: python, deep learning, nlp, ner, anomaly detection, cv

    Преподаватель
    Отзывы
    Андрей
    Разбаков
    Нейронные сети — это не просто, но очень интересно. Практика и теория, подробное объяснение принципов и моделей — это все тут в изобилии.
    Помимо базовых архитектур и их особенностей курс открыл для меня удивительный мир состязательных генеративных сетей. В столь короткий срок получить такие глубокие и обширные знания в этой области я бы точно самостоятельно не смог.
    Читать целиком
    Андрей
    Разбаков
    Нейронные сети — это не просто, но очень интересно. Практика и теория, подробное объяснение принципов и моделей — это все тут в изобилии.
    Помимо базовых архитектур и их особенностей курс открыл для меня удивительный мир состязательных генеративных сетей. В столь короткий срок получить такие глубокие и обширные знания в этой области я бы точно самостоятельно не смог.
    Читать целиком
    Необходимые знания
    • Знание линейной алгебры, начала анализа и теории вероятностей.
    • Владение языком программирования Python на уровне Junior (знать программирование на Python на базовом уровне необходимо, так как модели машины реализуются на Python).
    Подготовительный курс

    • Основные возможности языка Python

    • Создание сайтов на Django

    • Библиотеки для анализа данных

    • Общение в чате с преподавателем

    • Подготовка к курсам "Web-разработчик на Python" и "Разработчик Python"

    Записаться
    Процесс обучения
    Образовательный процесс на курсе "Нейронные сети на Python" проходит в формате вебинаров (онлайн). Слушателям предлагаются к выполнению домашние задания, которые позволят применить на практике полученные во время вебинаров знания. По каждому домашнему заданию преподаватель даёт развернутый фидбек. При написании кода используется Python.
    Преподаватель находится в едином коммуникационном пространстве с группой, т. е. слушатель может задавать преподавателю уточняющие вопросы по материалам лекций и домашних заданий.

    Интенсивность: 2 онлайн-вебинара в неделю по 2 часа каждый и от 1 до 4 часов на домашнюю работу.
    Программа обучения
    Модуль 1
    Первые шаги
    Модуль 2
    Основные архитектуры и методы обучения нейронных сетей
    Модуль 3
    Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
    Модуль 4
    Нейронные сети для слабоформализуемых задач
    Модуль 5
    Проектная работа
    Первые шаги
    В этом модуле мы познакомимся:
    i. с основными задачами которые можно решить с помощью нейронных сетей
    ii. фреймворками, позволяющими реализовывать различные нейросетевые архитектуры в соответствии с задачей
    iii. и методами, лежащими в основе обучения искусственных нейронных сетей.
    Тема 1: Искусственный интеллект и другие задачи которые можно решать с помощью нейронных сетей
    участники узнают что такое искусственные нейроны для того, чтобы понимать из чего состоят искусственные нейронные сети, познакомятся с историей развития искусственного интеллекта и актуальными задачами, которые стоят перед учеными в области Data Science
    29 апреля, 20:00 — 21:30
    Домашние задания: 1
    1 Введение в PyTorch
    1. Используя скрипт salt.py посчитать хэш от своего имени. Суть задания подтвердить запуск докера.
    2. Сделать свой transform, переводящий данные в распределение N(0, 1) и выложить код в Slack. Проверить код 3х коллег и отписаться в ветку к выложенному коду.
    Тема 2: Стохастический градиентный спуск и метод обратного распространения
    на занятии мы разберем математическую основу обучения нейронной сети и базовые идеи работы с данными
    2 мая, 10:00 — 11:30
    Тема 3: Первая нейронная сеть на PyTorch
    участники познакомятся с фреймворком PyTorch и научатся реализовывать простейшие нейронные сети
    6 мая, 20:00 — 21:30
    Домашние задания: 1
    1 Логистическая регрессия и переобучение
    1. В файле log_reg.ipynb изменить код таким образом, чтобы решить ту же самую задачу, а именно обучить логистическую регрессию, на двумерных данных
    2. Добиться от классифкатора на minst переобучения за счет изменения архитектуры и гиперпараметров.
    Тема 4: Переобучение и регуляризация нейронных сетей
    участники узнают что такое переобучение нейронной сети, и как с ним бороться для повышения эффективности своих моделей
    9 мая, 10:00 — 11:30
    Тема 5: Первая нейронная сеть на Tensorflow
    участники научатся реализовывать нейронные сети с помощью одного из самых популярных фреймворков
    13 мая, 20:00 — 21:30
    Домашние задания: 1
    1 Основы tenosrlow и tenosrboard
    Цель: Будут освоены базовые операции для сохранения логов в формате tensorboard на практических примерах. Д/з помогает понять, как использование tensorboard позволяет анализировать результаты эксперимента и находить причины, почему нейронная сеть не учится. Также в д/з обсуждаются темы, связанные с необходимостью нормализации и правильной подготовки данных, а так же важности выбора правильной архитектуры даже для простых моделей.
    Тема 6: Взрыв и затухание градиентов
    участники узнают в чем заключаются проблемы взрыва и затухания градиентов и познакомятся с методами борьбы позволяющими обучать более глубокие нейронные сети
    16 мая, 10:00 — 11:30
    Тема 7: Погружение в Tensorflow
    на занятии мы разберем продвинутые возможности фреймворка Tensorflow
    20 мая, 20:00 — 21:30
    Тема 8: Адаптивные методы градиентного спуска
    участники научатся применять современные модификации метода градиентного спуска для ускорения обучения нейронных сетей
    23 мая, 10:00 — 11:30
    Основные архитектуры и методы обучения нейронных сетей
    В этом модуле мы узнаем:
    i. Какие нейросетевые архитектуры существуют
    ii. Какие методы позволяют обучать глубокие нейронные сети.
    ii. Как применять нейросети в задачах компьютерного зрения, обработки естественных языков и обучения с подкреплением.
    Тема 1: Основные архитектуры нейронных сетей: Автокодировщики
    разбор базовых архитектур мы начнем с универсального фреймворка кодировщик-декодировщик и базовой архитектуры в этом фреймворке — автокодировщик. Участники узнают как создавать автокодировщики и смогут модифицировать основную структуру под конкретную задачу.
    27 мая, 20:00 — 21:30
    Домашние задания: 1
    1 Автокодировщик
    0. Обучить многослойный автокодировщик:
    а. отрисовать классы в латентном представлении автокодировщика с двумерным латентным слоем
    б. сделать tSNE над 32-мерным латентным слоем

    1. Обучить шумный автокодировщик:
    а. Добавить ко входным данным нормальный шум
    б. Сделать отражение части изображения
    в. Отрисовать карты активаций нейронов первого слоя
    Тема 2: Практическое занятие на TensorFlow. Разреженный Автокодировщик
    на занятии участники решат задачи удаления шума с изображения и разреживания представления данных.
    30 мая, 10:00 — 11:30
    Тема 3: Основные архитектуры нейронных сетей: Сверточные сети
    на этом занятии мы научимся использовать наиболее популярную архитектуру нейронной сети для решения задач компьютерного зрения, а также операцию обратную свертке для реализации сверточных автокодировщиков.
    3 июня, 20:00 — 21:30
    Домашние задания: 1
    1 Сверточные сети
    Необязательное домашнее задание
    1. Реализовать сверточный автокодировщик
    2. Сделать оптимизацию изображения под активацию сверточных нейронов классификатора
    3. Сделать оптимизацию изображения под активацию сверточных нейронов автокодировщика
    Тема 4: Практическое занятие на Keras. Transfer Learning.
    Участники познакомятся на практике с одним из ключевых методов решения задач компьютерного зрения.
    6 июня, 10:00 — 11:30
    Тема 5: Основные архитектуры нейронных сетей: Рекуррентные сети
    на примере задачи классификации коротких текстов, участники познакомятся еще с одной важнейшей архитектурой — рекуррентной нейронной сетью. Помимо обработки естественных языков мы рассмотрим общий подход к работе с последовательными данными с помощью рекуррентной сети.
    10 июня, 20:00 — 21:30
    Домашние задания: 1
    1 Создаем Википедию
    1. Используя подход аналогичный torchvision, сделать свой класс датасета.
    Необязательное д/з:
    1. Поэкспериментировать с разными архитектурами рекурренток: тип ячеек, слои, нормализация, методы оптимизации
    Тема 6: Практическое занятие на PyTorch. Генерация Википедии.
    на этом занятии мы перейдем от предсказания свойств текста к порождению собственных текстов.
    13 июня, 10:00 — 11:30
    Домашние задания: 1
    1 Создаем Википедию
    1. Используя подход аналогичный torchvision, сделать свой класс датасета.
    Необязательное д/з:
    1. Поэкспериментировать с разными архитектурами рекурренток: тип ячеек, слои, нормализация, методы оптимизации
    Тема 7: Введение в обучение с подкреплением
    участники научатся применять методы классического обучения с подкреплением для таких задач как A/B тестирование или игра в шахматы. Мы разберемся с тем кто такие многорукие бандиты и что такое TD-обучение.
    17 июня, 20:00 — 21:30
    Тема 8: Практическое занятие. Крестики-нолики.
    на примере игры в крестики-нолики участники сравнят решение с помощью нейронной сети с “табличными” методами обучения с подкреплением.
    20 июня, 10:00 — 11:30
    Домашние задания: 1
    1 Deep-Tac-Toe
    Цель: Опираясь на табличное обучение с подкреплением реализовать и обучить нейронную Q-функцию.
    Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
    В этом модуле мы разберем:
    i. Современные архитектуры сверточных и рекуррентных нейронных сетей.
    ii. Задачи сегментации и детекции объектов на изображении
    iii. Как устроено внимание и почему нейронные сети могут что-то забыть.

    Тема 1: Современные сверточные сети. Блоки и шорткаты.
    на этом занятии участники познакомятся с историей развития современных сверточных сетей, узнают что позволило сделать их по-настоящему глубокими и как это повлияло на область компьютерного зрения.
    Архитектуры: AlexNet, GoogLeNet, Inception, ResNet.
    24 июня, 20:00 — 21:30
    Тема 2: Современные рекуррентные сети. Внимание.
    тема посвящена тому, как “научить” нейросеть обращать внимание на наиболее важную информацию на изображении или в тексте. Мы узнаем, как использовать эту способность, чтобы искать логически связанные блоки информации, чем это поможет при машинном переводе, поиске ответов на вопросы, аннотации изображений.
    Архитектуры: Attention, Seq2Seq, PointerNetworks
    27 июня, 10:00 — 11:30
    Тема 3: Metric-learning и обучение без примеров
    мы научимся отображать объекты в пространство с метрикой и использовать такое представление для поиска похожих объектов и решения задачи классификации при отсутствии данных.
    Архитектуры: DSSM
    1 июля, 20:00 — 21:30
    Тема 4: Современные рекуррентные сети. Трансформеры.
    мы разберемся, как можно использовать только attention-слои для Natural Language Inference, а также разберемся, как трнсформер позволяет создать эмбеддинги, учитывающими контекст при кодировании многозначных слов.
    Архитектуры: Attention is all you need(transformer), ELMo, BERT
    4 июля, 10:00 — 11:30
    Тема 5: Современные сверточные сети. Transfer learning и fine-tuning
    участники узнают что делать если данных недостаточно для обучения глубокой нейронной сети, как использовать знания из уже обученной нейронной сети и подстраивать такую сеть к конкретной задаче.
    8 июля, 20:00 — 21:30
    Домашние задания: 1
    1 Transfer Learning vs Fine Tuning
    Цель: Используя датасет занятия (https://dropmefiles.com/u1iLk) реализовать подходы Transfer Learning и Fine Tuning с использованием VGG16 модели на Pytorch
    Тема 6: Катастрофическое забывание.
    архитектуры: https://arxiv.org/pdf/1612.00796.pdf
    11 июля, 10:00 — 11:30
    Тема 7: Глубокие сверточные сети. Сегментация
    на занятии мы разберемся, как при помощи нейронной сети сегментировать изображение, какие для этого есть архитектуры, что за принципы лежат в основе UNet и DeepLab.
    Архитектуры: UNet, DeepLab
    15 июля, 20:00 — 21:30
    Тема 8: Глубокие сверточные сети. Детекция.
    мы разберем принципы работы нейронных сетей для детекции объектов: от эволюцию от первых “чисто” нейросетевых алгоритмов до современных архитектур, работающих за “один взгляд” - YOLO, SSD
    Архитектуры: R-CNN, Faster-RCNN, YOLO, Single Shot Detector
    18 июля, 10:00 — 11:30
    Нейронные сети для слабоформализуемых задач
    В этом модуле мы научимся:
    i. Решать задачи с необычной структурой данных или отсутствием данных.
    ii. Создавать новые объекты и определять их “реалистичность”
    iii. Имитировать поведение людей и разбираться в их скрытых мотивах
    Тема 1: Генеративные состязательные сети
    на занятии мы разберем, как нейронная сеть учится обманывать другую нейронную сеть, и как от этого они обе становятся лучше, а мы получаем генератор качественных данных
    Архитектуры: GAN (Images)
    22 июля, 20:00 — 21:30
    Домашние задания: 1
    1 GANs
    1. Сделать условный GANs — класс подается на вход Генератору и Дискриминатору
    2. Сделать Adversarial Autoencoder — автокодировщик с лоссом от Дискриминатора вместо dKL
    Тема 2: Вариационный и состязательный автокодировщики
    25 июля, 10:00 — 11:30
    Домашние задания: 1
    1 Вариационный автокодировщик
    Реализовать VAE в pytorch для MNIST датасета. Визуализировать полученный результат.
    Тема 3: Доменная адаптация и условная генерация
    мы разберем подходы к обучению нейронных сетей на многомодальных данных, способы целенаправленного забывания информации и применение состязательного фреймворка для “честной” условной генерации.
    Архитектуры: Conditional GAN
    29 июля, 20:00 — 21:30
    Домашние задания: 1
    1 Условная генерация
    Обучить две версии CAAE — "частную" и "нечестную", преобразовать с их помощью исходные данные в латентное представление и обучить 3 классификатора — один на исходных данных и два на кодах, полученных из "честного" и "нечестного" CAAE. Сравнить качество классификации.
    Необязательная часть:
    Сделать перенос стиля с одной цифры на другие с помощью "честного" CAAE
    Тема 4: Генеративные модели для текстов
    на этом занятии мы познакомимся с методом Professor forcing, научимся использовать идеи обучения с подкреплением для генерации текстов, а также, узнаем как пропускать градиент через дискретные объекты с помощью репараметризации
    Архитектуры: Professor forcing, ORGAN, Gumbel trick
    1 августа, 10:00 — 11:30
    Тема 5: Обратное обучение с подкреплением
    на этом занятии мы разберем как имитировать поведение эксперта, что делать если награды неизвестны и можно ли назначать награды нейронной сетью.
    5 августа, 20:00 — 21:30
    Тема 6: Глубокое обучение с подкреплением
    участники узнают как же Google удалось победить чемпиона мира в игру го и что еще можно сделать таким же способом.
    Архитектуры: AlphaGo
    8 августа, 10:00 — 11:30
    Тема 7: Сверточные и рекуррентные сети на графах
    мы разберем архитектуры позволяющие работать с данными имеющими графовую структуру.
    Архитектуры: MPNN, GCN, DNC
    12 августа, 20:00 — 21:30
    Тема 8: Сферические свертки и множества точек
    участники узнают как применять непрерывные свертки для данных имеющих пространственную структуру.
    Архитектура: SchNet, PointNet
    15 августа, 10:00 — 11:30
    Проектная работа
    В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


    Работа над проектом проходит поэтапно:
    1. Выбор тематики.
    2. Сбор и подготовка соответствующих данных.
    3. Построение и обучение генеративной модели


    Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.
    Тема 1: консультация по проектной работе
    обзор выпускной работы. Постановка задачи. Предоставление необходимых для выполнения выпускной работы материалов
    19 августа, 20:00 — 21:30
    Домашние задания: 1
    1 Выпускная работа
    Цель: В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики. Работа над проектом проходит поэтапно: 1. Выбор тематики. 2. Сбор и подготовка соответствующих данных. 3. Построение и обучение генеративной модели Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации. Примеры тем проекта: имплементация универсального класса оптимизатора, обобщающего различные методы градиентного спуска для PyTorch; состязательная нейронная сеть для порождения изображений рукописного текста с заданным стилем; генеративная модель повышения разрешения изображений; рекуррентная состязательная seq2seq-архитектура для порождения стихотворений на основе обычного текста.
    Тема 2: консультация по проектной работе
    22 августа, 10:00 — 11:30
    Тема 3: защита проектной работы
    26 августа, 20:00 — 21:30
    Выпускной проект
    В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


    Работа над проектом проходит поэтапно:
    1. Выбор тематики.
    2. Сбор и подготовка соответствующих данных.
    3. Построение и обучение генеративной модели


    Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.


    Примеры тем проекта:

    • имплементация универсального класса оптимизатора, обобщающего различные методы градиентного спуска для PyTorch;

    • состязательная нейронная сеть для порождения изображений рукописного текста с заданным стилем;

    • генеративная модель повышения разрешения изображений;

    • рекуррентная состязательная seq2seq-архитектура для порождения стихотворений на основе обычного текста.

    Прошедшие открытые вебинары по курсу
    Открытый вебинар — это настоящее занятие в режиме он-лайн с преподавателем курса, которое позволяет посмотреть, как проходит процесс обучения. В ходе занятия слушатели имеют возможность задать вопросы и получить знания по реальным практическим кейсам.
    Регуляризация или ограничения, которые делают нас лучше
    Артур Кадурин
    День открытых дверей
    20 ноября 2019 года в 20:00
    Для доступа к прошедшим мероприятиям необходимо пройти входное тестирование
    Возможность пройти вступительное тестирование повторно появится только через 2 недели
    Результаты тестирования будут отправлены вам на e-mail, указанный при регистрации.
    Тест рассчитан на 30 минут, после начала тестирования отложить тестирование не получится!
    Пройти вступительное тестирование
    После обучения вы

    • получите материалы по всем пройденным занятиям (презентации, видеозаписи вебинаров, примеры кодов на Python);

    • станете специалистом в такой сфере, как глубокое машинное обучение;

    • получите сертификат об окончании курса;

    • повысите свои знания до уровня Middle/Senior;

    • получите приглашение пройти собеседование в компаниях-партнёрах (в случае успешного освоения программы на курсе «Нейронные сети на Python»).

    Дата выдачи сертификата: 3 ноября 2020 года
    Ваш сертификат

    онлайн-образование

    Сертификат №0001

    Константин Константинопольский

    Успешно закончил курс «Нейронные сети на Python»
    Выполнено практических заданий: 16 из 16

    Общество с ограниченной ответственностью “Отус Онлайн-Образование”

    Город:
    Москва

    Генеральный директор ООО “Отус Онлайн-Образование”
    Виталий Чибриков

    Лицензия на осуществление образовательной деятельности
    № 039825 от 28 декабря 2018 года.

    онлайн-образование

    Сертификат №0001

    Константин Константинопольский

    Успешно закончил курс «Нейронные сети на Python»
    Выполнено практических заданий: 16 из 16

    Общество с ограниченной ответственностью “Отус Онлайн-Образование”

    Город:
    Москва

    Генеральный директор ООО “Отус Онлайн-Образование”
    Виталий Чибриков

    Лицензия на осуществление образовательной деятельности
    № 039825 от 28 декабря 2018 года.
    Общая стоимость
    50 000 ₽ 40 000 ₽
    В месяц: 12 500 ₽
    В кредит: ₽ в месяц
    Продолжительность
    5 месяцев
    Начало занятий
    29 апреля