Проходил 14 ноября в 20:00

День открытых дверей
День открытых дверей курса Machine Learning

День открытых дверей онлайн

На Дне открытых дверей преподаватель расскажет о программе курса, формате обучения и перспективах для выпускников. Также среди тех, кто прошел вступительное тестирование до 19:00 (мск) 14 ноября и подтвердил свой телефонный номер, будет проведен розыгрыш приятных подарков.
Формат проведения — онлайн трансляция. Участие бесплатное.
Преподаватель
Артур Кадурин

Запись

О курсе

Machine Learning
40 000 ₽
3 месяца
Начало 21 ноября
<ul> <li>Знание архитектур нейронных сетей, их видов и особенностей. <li>Освоение методов обучения нейронных сетей. <li>Умение проектировать свою сеть и реализовывать её на Python с помощью фреймворка pyTorch. <li>Понимание, как эффективно решать задачи анализа данных с помощью глубокого обучения. <div class="course-fact-2-col"> <div class="star">8 работодателей <div class="finger" style="margin-bottom: 0;">Самый современный материал в области глубокого обучения <div class="flag" style="margin-bottom: 0;">Программа ...
Программа курса
Модуль 1
Введение в нейронные сети и глубокое обучение
Модуль 2
Основные архитектуры и методы обучения нейронных сетей.
Модуль 3
Состязательные нейронные сети
Модуль 4
Современные архитектуры нейронных сетей
Модуль 5
Проект
Введение в нейронные сети и глубокое обучение
В первом модуле участники познакомятся с нейронными сетями и задачами которые можно решить с их помощью, а так же воспользуются фреймворком pyTorch для создания первой нейронной модели.
Искусственный интеллект и другие задачи которые можно решать с помощью нейронных сетей
Участники узнают что такое искусственные нейроны для того, чтобы понимать из чего состоят искусственные нейронные сети
Смогут определять какие задачи можно решить с помощью нейронных сетей для того, чтобы формализовать абстрактные задачи от заказчика
Научатся пользоваться и искать необходимые функции в библиотеке pyTorch для того чтобы иметь возможность реализовывать нейронные сети.
21 ноября, 20:00 — 21:30
Домашние задания: 1
ДЗ
Введение в PyTorch. 1. Используя скрипт salt.py посчитать хэш от своего имени. Суть задания подтвердить запуск докера.
2. Сделать свой transform, переводящий данные в распределение N(0, 1) и выложить код в Slack. Проверить код 3х коллег и отписаться в ветку к выложенному коду.
Теоретические основы обучения нейронных сетей
Участники вспомнят(узнают) необходимую теорию для того чтобы успешно пройти данный курс
Узнают как реализовать свою первую модель машинного обучения для того чтобы уметь решать задачу классификации
24 ноября, 10:00 — 11:30
Домашние задания: 1
ДЗ
Логистическая регрессия на pyTorch. В файле log_reg.ipynb изменить код таким образом, чтобы решить ту же самую задачу, а именно обучить логистическую регрессию, на двумерных данных
Погружение в pyTorch
Участники узнают о том как происходит обучение нейронных сетей в pyTorch для того чтобы реализовывать глубокие нейронные сети
Познакомятся с фреймворком pyTorch для того чтобы искать необходимые классы и методы
28 ноября, 20:00 — 21:30
Переобучение и регуляризация нейронных сетей
Участники узнают что такое переобучение и как с ним бороться для повышения эффективности своих моделей
1 декабря, 10:00 — 11:30
Домашние задания: 1
ДЗ
Переобучение 1. Добиться от классифкатора fashionminst переобучения за счет изменения архитектуры и гиперпараметров.
Взрыв и затухание градиентов
Участники научатся бороться с проблемой взрыва/затухания градиентов для того чтобы обучать глубокие нейронные сети
5 декабря, 20:00 — 21:30
Основные архитектуры и методы обучения нейронных сетей.
Участники поработают с базовыми архитектурами нейронных сетей, и научатся решать типичные задачи анализа данных.
Основные архитектуры нейронных сетей: Автокодировщики
Участники узнают какие задачи можно решать с помощью автокодировщиков и смогут их создавать для решения этих задач
8 декабря, 10:00 — 11:30
Домашние задания: 1
ДЗ
Автокодировщик. 1. Обновить формулу KL-дивиргенции в соответствии со слайдами
2. Заменить sigmoid+KL на tanh+L1 и проверить работает ли такой подход
3. Используя дополнительный оптимайзер, подобрать на обученной сети картинку, на которой энкодер выдаст желаемый вектор латентного слоя и сравнить с тем что выдает декодер.
Необязательное д/з на поэкспериментировать:
1. Обучить шумный автокодировщик:
а. Добавить ко входным данным нормальный шум
б. Обнулить % случайных пикселей картинки (30-50% должно работать хорошо)
в. Обнулить левую/правую половину картинки
2. Используя подход из задания 3 на обученном классификаторе, подобрать входные данные на которых классификатор уверенно выдает один из классов.
Основные архитектуры нейронных сетей: Сверточные сети
Участники смогут создавать сверточные нейронные сети для решения задач компьютерного зрения
Применять операцию обратную свертке для реализации сверточных автокодировщиков
12 декабря, 20:00 — 21:30
Домашние задания: 1
ДЗ
Сверточные сети. Необязательное домашнее задание
1. Реализовать сверточный автокодировщик
2. Сделать оптимизацию изображения под активацию сверточных нейронов классификатора
3. Сделать оптимизацию изображения под активацию сверточных нейронов автокодировщика
Основные архитектуры нейронных сетей: Рекуррентные сети
Участники смогут создавать рекуррентные сети для решения задач обработки последовательностей и естественных языков
15 декабря, 10:00 — 11:30
Домашние задания: 1
ДЗ
Создаем Википедию. 1. Используя подход аналогичный torchvision, сделать свой класс датасета.
Необязательное д/з:
1. Поэкспериментировать с разными архитектурами рекурренток: тип ячеек, слои, нормализация, методы оптимизации
Адаптивные методы градиентного спуска
Участники научатся применять продвинутые методы градиентного спуска для ускорения обучения нейронных сетей
19 декабря, 20:00 — 21:30
Ошибки в реализации нейронных сетей
Участники научатся применять методы идентификации ошибок в реализации нейронных сетей для успешного применение нейросетей.
22 декабря, 10:00 — 11:30
Домашние задания: 1
ДЗ
Подготовка проекта. Нужно выбрать тематику проекта и сделать первичное описание:
1. Формулировка задачи
2. Предполагаемые методы
3. Ожидаемый результат
Состязательные нейронные сети
В этом модуле мы разберем один из найболее мощных современных фреймворков обучения нейронных сетей и примеры его использования.
Вариационный автокодировщик
Участники познакомятся с одной из самых популярных генеративных моделей нейронных сетей
26 декабря, 20:00 — 21:30
Домашние задания: 1
ДЗ
Вариационный автокодировщик. 1. Визуализировать двумерный латентный слой VAE. Показать какие цифры генерируются из каких точек в латентном слое.
2. Обучить условный VAE. Для этого добавить one-hot вектор класса ко входу декодировщика.
Генеративные Состязательные Сети
Участники познакомятся с фреймворком состязательных сетей на примере задачи порождения примеров аналогичных тренировочному множеству.
29 декабря, 10:00 — 11:30
Домашние задания: 1
ДЗ
GANs. 1. Сделать условный GANs — класс подается на вход Генератору и Дискриминатору
2. Сделать Adversarial Autoencoder — автокодировщик с лоссом от Дискриминатора вместо dKL
Состязательный Автокодировщик и условная генерация
Участники познакомятся с новыми техниками применения состязательного фреймворка для повышения эффективности решения задач порождения данных
2 января, 20:00 — 21:30
Домашние задания: 1
ДЗ
Условная генерация. Обучить две версии CAAE — "частную" и "нечестную", преобразовать с их помощью исходные данные в латентное представление и обучить 3 классификатора — один на исходных данных и два на полученных из разных CAAE. Сравнить качество классификамции.
Необязательная часть:
Сделать перенос стиля с одной цифры на другие с помощью "честного" CAAE
Domain Adaptation
Участники познакомятся с мощным подходом решения одинаковых задач на разных датасетах, для повышения точности решения в случае недостаточности данных
5 января, 10:00 — 11:30
Обзор: другие состязательные сети
Участники познакомятся с наиболее актуальными состязательными моделями и техниками
9 января, 20:00 — 21:30
Современные архитектуры нейронных сетей
В завершение курса мы разберем и реализуем ключевые архитектуры нейронных сетей для решения типичных задач компьютерного зрения, обработки естественных языков, анализа графов и т.д. А так же подробно рассмотрим общие концепции используемые при проектировании и обучении современных архитектур.
Обзор: Inception и ResNet
Участники gознакомятся с одной из самых популярных глубоких архитектур компьюетрного зрения и узнают за счет чего можно обучать очень глубокие нейронный сети
12 января, 10:00 — 11:30
Глубокие рекуррентные сети
Участники расширят свои знания в области рекуррентных нейронных сетей и научатся применять общие концепции используемые в глубоких нейронных сетях для повышения эффектиности моделей
16 января, 20:00 — 21:30
Metric-learning и обучение без примеров
Участники познакомятся с идеей выучивания метрик для решения задач ранжирования и поиска, а так же узнают как использовать данный подход в условиях недостаточной обучающей выборки
19 января, 10:00 — 11:30
Обзор: внимание, множества и сегментация
Участники научатся работать с множествами при обучении нейронных сетей, узнают об общей концепции внимания и смогут решать задачу сегментации.
23 января, 20:00 — 21:30
Нейронные сети для работы с графами
Участники научатся использовать графовые типы данных для решения задач анализа на графах
26 января, 10:00 — 11:30
Проект
В рамках курса предусмотрена защита проекта. Проект представляет из себя генеративную модель для порождения текста заданного стиля или изображений заданной тематики.
Проект в ключает в себя следующие этапы:
Выбор тематики
Сбор и подготовка данных соответствующих тематике
Построение и обучение генеративной модели
Проект выполняется в течении двух недель после прохождения курса. Решение должно включать код модели и ее обучения, описание архитектуры модели, отчет об обучении модели и примеры генерации.

Преподаватель

Артур Кадурин
В настоящее время CEO Insilico Taiwan и Chief AI Officer Insilico Medicine.

В Mail.ru был первым сотрудником в группе анализа данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с пользовательской аналитикой в рекламе, соцсетях, играх и т. д.

С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возглавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

Научные публикации:
The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/

druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000

3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756

Книга:
Глубокое обучение. https://www.piter.com/product/glubokoe-obuchenie
"Нужно бежать со всех ног, чтобы только оставаться на месте, а чтобы куда-то попасть, надо бежать как минимум вдвое быстрее!" Больше, чем 150 лет назад Чарльз Доджсон сформулировал актуальную по сей день мысль. Для того, чтобы добиться успеха недостаточно просто делать свое дело, потому что мир меняется вместе с вами. Я уверен, что такие проекты как Otus способны придать участникам ускорение необходимое для того, чтобы "обогнать" меняющийся мир.
Преподаватель курсов:
Machine Learning

F.A.Q.: Наиболее часто задаваемые вопросы:

Могу ли я принять участие в розыгрыше, если я уже оплатил обучение?
В розыгрыше принимают участие все пользователи, успешно прошедшие вступительное тестирование и подтвердившие номер телефона. Если вы уже оплатили обучение и стали счастливым обладателем скидки – мы вернем вам разницу. Также вы можете подарить скидку другу.
Нужно ли оплачивать обучение до Дня открытых дверей, если я хочу гарантированно попасть в группу?
Да, мы рекомендуем заранее оплатить обучение, чтобы гарантированно попасть в группу. В период проведения Дня открытых дверей резко возрастает количество желающих обучаться, поэтому может случиться так, что к окончанию Дня открытых дверей мест в группе не останется
Кто будет проводить День открытых дверей?
Проводить День открытых дверей будет преподаватель курса.
Как принять участие в Дне открытых дверей?
Для того, чтобы принять участие в Дне открытых дверей, оставьте свой e-mail в поле регистрации на мероприятие. Перед началом Дня открытых дверей мы пришлем вам ссылку, пройдя по которой, вы сможете присоединиться к вебинару.
Если вы хотите принять участие в розыгрыше бесплатных мест – до начала мероприятия необходимо зарегистрироваться на сайте и успешно пройти вступительное тестирование, после чего подтвердить свой номер мобильного телефона и сделать это не позже, чем за час до начала занятия.
Какие вопросы будем обсуждать на Дне открытых дверей?
На дне открытых дверей мы поговорим о проекте OTUS (о программе курса, почему мы не принимаем в группы новичков, почему учиться у нас интересно, но сложно), карьерных перспективах выпускников (почему вероятность карьерного роста у лучших студентов стремится к 100%), учебном процессе (оплатах, оценке знаний, сертификатах и прочих аспектах). Также ведущий мероприятия с радостью ответит на все ваши вопросы.