День открытых дверей по курсу «Нейронные сети на Python» 22.05.2019 в 20:00 | OTUS
Скидки на курсы июня!
Только два дня! Пишите в чат, чтобы получить максимальную скидку ➞
Написать в чат

Курсы

Программирование
Web-разработчик на Python Разработчик на Spring Framework iOS Разработчик. Продвинутый курс v 2.0. PostgreSQL C# ASP.NET Core разработчик Разработчик C# Архитектор программного обеспечения Разработчик C++ MS SQL Server разработчик Android-разработчик. Базовый курс Архитектор высоких нагрузок Backend-разработчик на PHP Алгоритмы для разработчиков Team Lead 2.0 Python-разработчик. Базовый курс VOIP инженер Базы данных Разработчик Golang Разработчик программных роботов (RPA) на базе UiPath и PIX Разработчик голосовых ассистентов и чат-ботов Agile Project Manager в IT
Специализации Курсы в разработке Подготовительные курсы
+7 499 938-92-02
Проходил 22 мая 2019 года в 20:00

День открытых дверей
Всё о курсе «Нейронные сети на Python»

День открытых дверей онлайн

День Открытых Дверей — отличная возможность узнать подробнее о программе курса, особенностях онлайн-формата, навыках, компетенциях и перспективах, которые ждут выпускников после обучения. Также преподаватель расскажет о своём профессиональном опыте и ответит на вопросы участников. Поэтому если есть вопрос, запишитесь на онлайн-трансляцию и задайте его в прямом эфире!
Преподаватель
Артур Кадурин

Запись

О курсе

Нейронные сети на Python
50 000 ₽
5 месяцев
Начало в сентябре

  • В первых двух модулях курса мы разбираем всю необходимую теорию для дальнейшего погружения в глубокое обучение, изучаем основные фреймворки (PyTorch, Keras, Tensorflow) для разработки нейронных сетей и решаем классические задачи компьютерного зрения, обработки естественных языков и обучения с подкреплением.
  • Третий модуль посвящен современным подходам к решению классических задач компьютерного зрения и обработки естественных языков. Мы …
Программа курса
Модуль 1
Первые шаги
Модуль 2
Основные архитектуры и методы обучения нейронных сетей
Модуль 3
Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
Модуль 4
Нейронные сети для слабоформализуемых задач
Модуль 5
Проектная работа
Первые шаги
В этом модуле мы познакомимся:
i. с основными задачами которые можно решить с помощью нейронных сетей
ii. фреймворками, позволяющими реализовывать различные нейросетевые архитектуры в соответствии с задачей
iii. и методами, лежащими в основе обучения искусственных нейронных сетей.
Искусственный интеллект и другие задачи которые можно решать с помощью нейронных сетей
объяснить, что такое искусственные нейроны для того, чтобы понимать из чего состоят искусственные нейронные сети, познакомятся с историей развития искусственного интеллекта и актуальными задачами, которые стоят перед учеными в области Data Science.
Домашние задания: 1
ДЗ
Docker. В докерфайле из материалов нужно заменить версию Tensorflow на последнюю и добавить установку Keras.
Запустить контейнер из своего образа, импортировать TF и Keras и вывести версии.
Выложить скриншот с версиями
Стохастический градиентный спуск и метод обратного распространения
разобрать математическую основу обучения нейронной сети и базовые идеи работы с данными.
Первая нейронная сеть на PyTorch
работать с фреймворком PyTorch;
реализовывать простейшие нейронные сети.
Домашние задания: 1
ДЗ
Логистическая регрессия и переобучение. 1. В файле log_reg.ipynb изменить код таким образом, чтобы решить ту же самую задачу, а именно обучить логистическую регрессию, на двумерных данных
2. Добиться от классифкатора на minst переобучения за счет изменения архитектуры и гиперпараметров.
Переобучение и регуляризация нейронных сетей
объяснить, что такое переобучение нейронной сети, и как с ним бороться для повышения эффективности своих моделей.
Первая нейронная сеть на Tensorflow
реализовывать нейронные сети с помощью одного из самых популярных фреймворков.
Домашние задания: 1
ДЗ
Основы tenosrlow и tf.keras. Скачайте ноутбук с домашним заданием по ссылке.

Более подробная инструкция в ноутбуке, в том числе и в какой форме его можно сдать.
Взрыв и затухание градиентов
проанализировать проблемы взрыва и затухания градиентов и познакомятся с методами борьбы позволяющими обучать более глубокие нейронные сети.
Погружение в Tensorflow
разобрать продвинутые возможности фреймворка Tensorflow.
Адаптивные методы градиентного спуска
применять современные модификации метода градиентного спуска для ускорения обучения нейронных сетей.
Основные архитектуры и методы обучения нейронных сетей
В этом модуле мы узнаем:
i. Какие нейросетевые архитектуры существуют
ii. Какие методы позволяют обучать глубокие нейронные сети.
ii. Как применять нейросети в задачах компьютерного зрения, обработки естественных языков и обучения с подкреплением.
Основные архитектуры нейронных сетей: Автокодировщики
создавать автокодировщики;
модифицировать основную структуру под конкретную задачу.
Домашние задания: 1
ДЗ
Автокодировщик. 0. Обучить многослойный автокодировщик:
а. отрисовать классы в латентном представлении автокодировщика с двумерным латентным слоем,
б. сделать tSNE над 32-мерным латентным слоем.

1. Обучить автокодировщик с шумом:
а. Добавить ко входным данным нормальный шум,
б. Сделать отражение части изображения,
в. Отрисовать карты активаций нейронов внутреннего слоя.
Практическое занятие на TensorFlow. Разреженный Автокодировщик
решать задачи удаления шума с изображения и разреживания представления данных.
Основные архитектуры нейронных сетей: Сверточные сети
использовать наиболее популярную архитектуру нейронной сети для решения задач компьютерного зрения, а также операцию обратную свертке для реализации сверточных автокодировщиков.
10 июня, 20:00 — 21:30
Лектор: Евгения Ческидова
Домашние задания: 1
ДЗ
Сверточные сети. Необязательное домашнее задание
1. Реализовать сверточный автокодировщик
2. Сделать оптимизацию изображения под активацию сверточных нейронов классификатора
3. Сделать оптимизацию изображения под активацию сверточных нейронов автокодировщика
Практическое занятие на Keras. Transfer Learning
разобрать на практике один из ключевых методов решения задач компьютерного зрения.
13 июня, 10:00 — 11:30
Лектор: Евгения Ческидова
Основные архитектуры нейронных сетей: Рекуррентные сети
на примере задачи классификации коротких текстов, познакомиться еще с одной важнейшей архитектурой — рекуррентной нейронной сетью;
помимо обработки естественных языков рассмотреть общий подход к работе с последовательными данными с помощью рекуррентной сети.
17 июня, 20:00 — 21:30
Лектор: Михаил Степанов
Практическое занятие на PyTorch. Генерация Википедии
перейти от предсказания свойств текста к порождению собственных текстов.
20 июня, 10:00 — 11:30
Лектор: Роман Захаров
Домашние задания: 1
ДЗ
Создаем Википедию. 1. Используя подход аналогичный torchvision, сделать свой класс датасета.
Необязательное д/з:
1. Поэкспериментировать с разными архитектурами рекурренток: тип ячеек, слои, нормализация, методы оптимизации
Введение в обучение с подкреплением
применять методы классического обучения с подкреплением для таких задач как A/B тестирование или игра в шахматы;
разобраться с тем, кто такие многорукие бандиты и что такое TD-обучение.
24 июня, 20:00 — 21:30
Лектор: Артур Кадурин
Практическое занятие. Крестики-нолики
на примере игры в крестики-нолики сравнить решение с помощью нейронной сети с “табличными” методами обучения с подкреплением.
27 июня, 10:00 — 11:30
Лектор: Артур Кадурин
Домашние задания: 1
ДЗ
Deep-Tac-Toe.
Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
В этом модуле мы разберем:
i. Современные архитектуры сверточных и рекуррентных нейронных сетей.
ii. Задачи сегментации и детекции объектов на изображении
iii. Как устроено внимание и почему нейронные сети могут что-то забыть.

Современные сверточные сети. Блоки и шорткаты
проанализировать историю развития современных сверточных сетей;
объяснить, что позволило сделать их по-настоящему глубокими и как это повлияло на область компьютерного зрения.
8 июля, 20:00 — 21:30
Современные рекуррентные сети. Внимание
“научить” нейросеть обращать внимание на наиболее важную информацию на изображении или в тексте;
использовать эту способность, чтобы искать логически связанные блоки информации, чем это поможет при машинном переводе, поиске ответов на вопросы, аннотации изображений.
11 июля, 10:00 — 11:30
Metric-learning и обучение без примеров
отображать объекты в пространство с метрикой и использовать такое представление для поиска похожих объектов и решения задачи классификации при отсутствии данных.
15 июля, 20:00 — 21:30
Современные рекуррентные сети. Трансформеры
использовать только attention-слои для Natural Language Inference, а также разобраться, как трансформер позволяет создать эмбеддинги, учитывающими контекст при кодировании многозначных слов.
18 июля, 10:00 — 11:30
Современные сверточные сети. Transfer learning и fine-tuning
объяснить, что делать, если данных недостаточно для обучения глубокой нейронной сети;
использовать знания из уже обученной нейронной сети и подстраивать такую сеть к конкретной задаче.
22 июля, 20:00 — 21:30
Домашние задания: 1
ДЗ
Transfer Learning vs Fine Tuning.
Катастрофическое забывание
25 июля, 10:00 — 11:30
Глубокие сверточные сети. Сегментация
разобраться, как при помощи нейронной сети сегментировать изображение, какие для этого есть архитектуры, что за принципы лежат в основе UNet и DeepLab.
29 июля, 20:00 — 21:30
Глубокие сверточные сети. Детекция
проанализировать принципы работы нейронных сетей для детекции объектов: от эволюцию от первых “чисто” нейросетевых алгоритмов до современных архитектур, работающих за “один взгляд” - YOLO, SSD.
1 августа, 10:00 — 11:30
Нейронные сети для слабоформализуемых задач
В этом модуле мы научимся:
i. Решать задачи с необычной структурой данных или отсутствием данных.
ii. Создавать новые объекты и определять их “реалистичность”
iii. Имитировать поведение людей и разбираться в их скрытых мотивах
Генеративные состязательные сети
объяснить, как нейронная сеть учится обманывать другую нейронную сеть, и как от этого они обе становятся лучше, а мы получаем генератор качественных данных.
12 августа, 20:00 — 21:30
Домашние задания: 1
ДЗ
GANs. 1. Сделать условный GANs — класс подается на вход Генератору и Дискриминатору
2. Сделать Adversarial Autoencoder — автокодировщик с лоссом от Дискриминатора вместо dKL
Вариационный и состязательный автокодировщики
15 августа, 10:00 — 11:30
Домашние задания: 1
ДЗ
Вариационный автокодировщик. Реализовать VAE в pytorch для MNIST датасета. Визуализировать полученный результат.
Доменная адаптация и условная генерация
разобрать подходы к обучению нейронных сетей на многомодальных данных, способы целенаправленного забывания информации и применение состязательного фреймворка для “честной” условной генерации.
19 августа, 20:00 — 21:30
Домашние задания: 1
ДЗ
Условная генерация. Обучить две версии CAAE — "частную" и "нечестную", преобразовать с их помощью исходные данные в латентное представление и обучить 3 классификатора — один на исходных данных и два на кодах, полученных из "честного" и "нечестного" CAAE. Сравнить качество классификации.
Необязательная часть:
Сделать перенос стиля с одной цифры на другие с помощью "честного" CAAE
Генеративные модели для текстов
работать с методом Professor forcing;
использовать идеи обучения с подкреплением для генерации текстов, а также пропускать градиент через дискретные объекты с помощью репараметризации.
22 августа, 10:00 — 11:30
Обратное обучение с подкреплением
имитировать поведение эксперта;
объяснить, что делать, если награды неизвестны и можно ли назначать награды нейронной сетью.
26 августа, 20:00 — 21:30
Глубокое обучение с подкреплением
проанализировать как же Google удалось победить чемпиона мира в игру го и что еще можно сделать таким же способом.
29 августа, 10:00 — 11:30
Сверточные и рекуррентные сети на графах
проанализировать архитектуры, позволяющие работать с данными имеющими графовую структуру.
2 сентября, 20:00 — 21:30
Сферические свертки и множества точек
применять непрерывные свертки для данных имеющих пространственную структуру.
5 сентября, 10:00 — 11:30
Проектная работа
В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


Работа над проектом проходит поэтапно:
1. Выбор тематики.
2. Сбор и подготовка соответствующих данных.
3. Построение и обучение генеративной модели


Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.
Выбор темы и организация проектной работы
выбрать и обсудить тему проектной работы;
спланировать работу над проектом;
ознакомиться с регламентом работы над проектом.
9 сентября, 20:00 — 21:30
Домашние задания: 1
ДЗ
Выпускная работа.
Консультация по проектам и домашним заданиям
получить ответы на вопросы по проекту, ДЗ и по курсу.
12 сентября, 10:00 — 11:30
Защита проектных работ
защитить проект и получить рекомендации экспертов.
16 сентября, 20:00 — 21:30

Преподаватель

Артур Кадурин
Chief AI Officer Insilico Medicine
В Mail.Ru Group был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

С 2016 года применяет методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возглавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

Соавтор книги Глубокое обучение
Соавтор многочисленных научных публикаций: Google Scholar
Преподаватель курсов:
Нейронные сети на Python

F.A.Q.: Наиболее часто задаваемые вопросы:

Нужно ли оплачивать обучение до Дня открытых дверей, если я хочу гарантированно попасть в группу?
Да, мы рекомендуем заранее оплатить обучение, чтобы гарантированно попасть в группу. В период проведения Дня открытых дверей резко возрастает количество желающих обучаться, поэтому может случиться так, что к окончанию Дня открытых дверей мест в группе не останется
Кто будет проводить День открытых дверей?
Проводить День открытых дверей будет преподаватель курса.
Как принять участие в Дне открытых дверей?
Для того, чтобы принять участие в Дне открытых дверей, оставьте свой e-mail в поле регистрации на мероприятие. Перед началом Дня открытых дверей мы пришлем вам ссылку, пройдя по которой, вы сможете присоединиться к вебинару.
Какие вопросы будем обсуждать на Дне открытых дверей?
На дне открытых дверей мы поговорим о проекте OTUS (о программе курса, почему мы не принимаем в группы новичков, почему учиться у нас интересно, но сложно), карьерных перспективах выпускников (почему вероятность карьерного роста у лучших студентов стремится к 100%), учебном процессе (оплатах, оценке знаний, сертификатах и прочих аспектах). Также ведущий мероприятия с радостью ответит на все ваши вопросы.
🎁 Дарим сертификаты на скидку!
Запишитесь на июньскую трансляцию интересного вам дня открытых дверей и участвуйте в Акции ➞