Нейронные сети на Python, глубокое машинное обучение и задачи Deep Learning инженера

Курсы

Курсы в разработке Подготовительные курсы
+7 499 110-61-65

Нейронные сети на Python

Курс о нейронных сетях, глубоком обучении и их применении для решения задач CV, NLP и обучения с подкреплением

Длительность

5 месяцев

Начало занятий

В апреле

Продолжительность
5 месяцев, 4 академ. часа в неделю
Начало занятий
В апреле
Что даст вам этот курс


  • В первых двух модулях курса мы разбираем всю необходимую теорию для дальнейшего погружения в глубокое обучение, изучаем основные фреймворки (PyTorch, Keras, Tensorflow) для разработки нейронных сетей и решаем классические задачи компьютерного зрения, обработки естественных языков и обучения с подкреплением.
  • Третий модуль посвящен современным подходам к решению классических задач компьютерного зрения и обработки естественных языков. Мы узнаем, как от предсказательных моделей перейти к генеративным, научимся работать с нестандартными представлениями данных и решать задачи в условиях недостаточной разметки.
  • В четвертом модуле обсуждаются подходы к решению задач, традиционно считавшихся “человеческими”. Мы поговорим о фантазии, подражании, использовании собственного опыта и неструктурируемых данных.







Научитесь работать с нейронными сетями с использованием фреймворков PyTorch, Tensorflow, Keras


Изучите теорию и практику по таким важным направлениям Deep Learning как Computer Vision, NLP, обучение с подкреплением

Самый современный материал про глубокое обучение

Программа подготовлена признанным экспертом по глубокому обучению


Нейронные сети — как дети: их можно научить чему угодно. Но нужно помнить и о трудностях, сопровождающих каждого родителя: неправильные методы обучения, недостаток хороших примеров или несоответствие архитектуры ребёнка поставленным задачам могут привести к непредсказуемым результатам.
Артур Кадурин
Преподаватель курса
Нейронные сети — как дети: их можно научить чему угодно. Но нужно помнить и о трудностях, сопровождающих каждого родителя: неправильные методы обучения, недостаток хороших примеров или несоответствие архитектуры ребёнка поставленным задачам могут привести к непредсказуемым результатам.
Артур Кадурин
Преподаватель курса
Преподаватели
Артур Кадурин
CEO Insilico Taiwan и Chief AI Officer Insilico Medicine
Михаил Степанов
Jet Infosystems
Роман Захаров
Senior data scientist в Райффайзен банке

В Mail.ru был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возгавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

Соавтор книги про глубокое машинное обучение: https://www.piter.com/product/glubokoe-obuchenie

Научные публикации:

  • The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/

  • druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000

  • 3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756




  • Работаю в отделе машинного обучения компании Jet Infosystems.
    Занимаюсь проектами по агрегации отзывов, по анализу и оптимизации производства крупных промышленных компаний.
    В data science пришел из промышленного программирования на Python, где разрабатывал код для "толстого клиента" в проекте по созданию "умных окон".

    Ранее учил талантливых школьников программированию, машинному обучению и программированию учебных моделей спутников.

    Область интересов: data science, математика, космос и Python.
    Мой взгляд на программирование: с великой силой приходит великая ответственность.

    Работал в различных проектах связанных с телеком, видеонаблюдением, бухгалтерской сфере, юридической и банковской индустрии.

    Область интересов: python, deep learning, nlp, ner, anomaly detection, cv

    Артур
    Кадурин
    Михаил
    Степанов
    Роман
    Захаров
    Преподаватели
    Артур Кадурин
    CEO Insilico Taiwan и Chief AI Officer Insilico Medicine

    В Mail.ru был первым сотрудником в группе по анализу данных департамента рекламных технологий. После того, как группа выросла в отдел, возглавил группу сегментирования аудитории. Руководил и участвовал в проектах, связанных с анализом пользовательского поведения в рекламе, соцсетях, играх и т. д.

    С 2016 года применял методы глубокого обучения для научных исследований в области медицинской химии совместно с командой Insilico Medicine, где после успешного проекта занял должность директора по AI. В конце 2017 г. возгавил дочернюю компанию Insilico Taiwan в качестве исполнительного директора.

    В 2008 году получил специальность математика и системного программиста в Кубанском Государственном Университете на Факультете Компьютерных Наук и Прикладной Математики, с 2013 года занимается машинным обучением.

    Соавтор книги про глубокое машинное обучение: https://www.piter.com/product/glubokoe-obuchenie

    Научные публикации:

  • The cornucopia of meaningful leads: Applying deep adversarial autoencoders for new molecule development in oncology. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5355231/

  • druGAN: An Advanced Generative Adversarial Autoencoder Model for de Novo Generation of New Molecules with Desired Molecular Properties in Silico. https://www.ncbi.nlm.nih.gov/pubmed/28703000

  • 3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks. https://www.ncbi.nlm.nih.gov/pubmed/29473756




  • Михаил Степанов
    Jet Infosystems
    Работаю в отделе машинного обучения компании Jet Infosystems.
    Занимаюсь проектами по агрегации отзывов, по анализу и оптимизации производства крупных промышленных компаний.
    В data science пришел из промышленного программирования на Python, где разрабатывал код для "толстого клиента" в проекте по созданию "умных окон".

    Ранее учил талантливых школьников программированию, машинному обучению и программированию учебных моделей спутников.

    Область интересов: data science, математика, космос и Python.
    Мой взгляд на программирование: с великой силой приходит великая ответственность.

    Роман Захаров
    Senior data scientist в Райффайзен банке
    Работал в различных проектах связанных с телеком, видеонаблюдением, бухгалтерской сфере, юридической и банковской индустрии.

    Область интересов: python, deep learning, nlp, ner, anomaly detection, cv

    Отзывы
    Андрей
    Разбаков
    Нейронные сети — это не просто, но очень интересно. Практика и теория, подробное объяснение принципов и моделей — это все тут в изобилии.
    Помимо базовых архитектур и их особенностей курс открыл для меня удивительный мир состязательных генеративных сетей. В столь короткий срок получить такие глубокие и обширные знания в этой области я бы точно самостоятельно не смог.
    Читать целиком
    Андрей
    Разбаков
    Нейронные сети — это не просто, но очень интересно. Практика и теория, подробное объяснение принципов и моделей — это все тут в изобилии.
    Помимо базовых архитектур и их особенностей курс открыл для меня удивительный мир состязательных генеративных сетей. В столь короткий срок получить такие глубокие и обширные знания в этой области я бы точно самостоятельно не смог.
    Читать целиком
    Необходимые знания
    • Знание линейной алгебры, начала анализа и теории вероятностей.
    • Владение языком программирования Python на уровне Junior (знать программирование на Python на базовом уровне необходимо, так как модели машины реализуются на Python).
    Процесс обучения
    Образовательный процесс на курсе "Нейронные сети на Python" проходит в формате вебинаров (онлайн). Слушателям предлагаются к выполнению домашние задания, которые позволят применить на практике полученные во время вебинаров знания. По каждому домашнему заданию преподаватель даёт развернутый фидбек. При написании кода используется Python.
    Преподаватель находится в едином коммуникационном пространстве с группой, т. е. слушатель может задавать преподавателю уточняющие вопросы по материалам лекций и домашних заданий.

    Интенсивность: 2 онлайн-вебинара в неделю по 2 часа каждый и от 1 до 4 часов на домашнюю работу.
    Программа обучения
    Модуль 1
    Первые шаги
    Модуль 2
    Основные архитектуры и методы обучения нейронных сетей
    Модуль 3
    Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
    Модуль 4
    Нейронные сети для слабоформализуемых задач
    Модуль 5
    Проектная работа
    Первые шаги
    В этом модуле мы познакомимся:
    i. с основными задачами которые можно решить с помощью нейронных сетей
    ii. фреймворками, позволяющими реализовывать различные нейросетевые архитектуры в соответствии с задачей
    iii. и методами, лежащими в основе обучения искусственных нейронных сетей.
    Тема 1: Искусственный интеллект и другие задачи которые можно решать с помощью нейронных сетей
    участники узнают что такое искусственные нейроны для того, чтобы понимать из чего состоят искусственные нейронные сети, познакомятся с историей развития искусственного интеллекта и актуальными задачами, которые стоят перед учеными в области Data Science
    Домашние задания: 1
    1 Введение в PyTorch
    1. Используя скрипт salt.py посчитать хэш от своего имени. Суть задания подтвердить запуск докера.
    2. Сделать свой transform, переводящий данные в распределение N(0, 1) и выложить код в Slack. Проверить код 3х коллег и отписаться в ветку к выложенному коду.
    Тема 2: Стохастический градиентный спуск и метод обратного распространения
    на занятии мы разберем математическую основу обучения нейронной сети и базовые идеи работы с данными
    Тема 3: Первая нейронная сеть на PyTorch
    участники познакомятся с фреймворком PyTorch и научатся реализовывать простейшие нейронные сети
    Домашние задания: 1
    1 Логистическая регрессия и переобучение
    1. В файле log_reg.ipynb изменить код таким образом, чтобы решить ту же самую задачу, а именно обучить логистическую регрессию, на двумерных данных
    2. Добиться от классифкатора на minst переобучения за счет изменения архитектуры и гиперпараметров.
    Тема 4: Переобучение и регуляризация нейронных сетей
    участники узнают что такое переобучение нейронной сети, и как с ним бороться для повышения эффективности своих моделей
    Тема 5: Первая нейронная сеть на Tensorflow
    участники научатся реализовывать нейронные сети с помощью одного из самых популярных фреймворков
    Домашние задания: 1
    1 Основы tenosrlow и tenosrboard
    Цель: Будут освоены базовые операции для сохранения логов в формате tensorboard на практических примерах. Д/з помогает понять, как использование tensorboard позволяет анализировать результаты эксперимента и находить причины, почему нейронная сеть не учится. Также в д/з обсуждаются темы, связанные с необходимостью нормализации и правильной подготовки данных, а так же важности выбора правильной архитектуры даже для простых моделей.
    Тема 6: Взрыв и затухание градиентов
    участники узнают в чем заключаются проблемы взрыва и затухания градиентов и познакомятся с методами борьбы позволяющими обучать более глубокие нейронные сети
    Тема 7: Погружение в Tensorflow
    на занятии мы разберем продвинутые возможности фреймворка Tensorflow
    Тема 8: Адаптивные методы градиентного спуска
    участники научатся применять современные модификации метода градиентного спуска для ускорения обучения нейронных сетей
    Основные архитектуры и методы обучения нейронных сетей
    В этом модуле мы узнаем:
    i. Какие нейросетевые архитектуры существуют
    ii. Какие методы позволяют обучать глубокие нейронные сети.
    ii. Как применять нейросети в задачах компьютерного зрения, обработки естественных языков и обучения с подкреплением.
    Тема 1: Основные архитектуры нейронных сетей: Автокодировщики
    разбор базовых архитектур мы начнем с универсального фреймворка кодировщик-декодировщик и базовой архитектуры в этом фреймворке — автокодировщик. Участники узнают как создавать автокодировщики и смогут модифицировать основную структуру под конкретную задачу.
    Домашние задания: 1
    1 Автокодировщик
    0. Обучить многослойный автокодировщик:
    а. отрисовать классы в латентном представлении автокодировщика с двумерным латентным слоем
    б. сделать tSNE над 32-мерным латентным слоем

    1. Обучить шумный автокодировщик:
    а. Добавить ко входным данным нормальный шум
    б. Сделать отражение части изображения
    в. Отрисовать карты активаций нейронов первого слоя
    Тема 2: Практическое занятие на TensorFlow. Разреженный Автокодировщик
    на занятии участники решат задачи удаления шума с изображения и разреживания представления данных.
    Тема 3: Основные архитектуры нейронных сетей: Сверточные сети
    на этом занятии мы научимся использовать наиболее популярную архитектуру нейронной сети для решения задач компьютерного зрения, а также операцию обратную свертке для реализации сверточных автокодировщиков.
    22 января, 20:00 — 21:30
    Лектор: Роман Захаров
    Домашние задания: 1
    1 Сверточные сети
    Необязательное домашнее задание
    1. Реализовать сверточный автокодировщик
    2. Сделать оптимизацию изображения под активацию сверточных нейронов классификатора
    3. Сделать оптимизацию изображения под активацию сверточных нейронов автокодировщика
    Тема 4: Практическое занятие на Keras. Transfer Learning.
    Участники познакомятся на практике с одним из ключевых методов решения задач компьютерного зрения.
    25 января, 10:00 — 11:30
    Лектор: Михаил Степанов
    Тема 5: Основные архитектуры нейронных сетей: Рекуррентные сети
    на примере задачи классификации коротких текстов, участники познакомятся еще с одной важнейшей архитектурой — рекуррентной нейронной сетью. Помимо обработки естественных языков мы рассмотрим общий подход к работе с последовательными данными с помощью рекуррентной сети.
    29 января, 20:00 — 21:30
    Лектор: Роман Захаров
    Домашние задания: 1
    1 Создаем Википедию
    1. Используя подход аналогичный torchvision, сделать свой класс датасета.
    Необязательное д/з:
    1. Поэкспериментировать с разными архитектурами рекурренток: тип ячеек, слои, нормализация, методы оптимизации
    Тема 6: Практическое занятие на PyTorch. Генерация Википедии.
    на этом занятии мы перейдем от предсказания свойств текста к порождению собственных текстов.
    1 февраля, 10:00 — 11:30
    Лектор: Роман Захаров
    Тема 7: Введение в обучение с подкреплением
    участники научатся применять методы классического обучения с подкреплением для таких задач как A/B тестирование или игра в шахматы. Мы разберемся с тем кто такие многорукие бандиты и что такое TD-обучение.
    5 февраля, 20:00 — 21:30
    Лектор: Артур Кадурин
    Домашние задания: 1
    1 Подготовка проекта
    Нужно выбрать тематику проекта и сделать первичное описание:
    1. Формулировка задачи
    2. Предполагаемые методы
    3. Ожидаемый результат
    Тема 8: Практическое занятие. Крестики-нолики.
    на примере игры в крестики-нолики участники сравнят решение с помощью нейронной сети с “табличными” методами обучения с подкреплением.
    8 февраля, 10:00 — 11:30
    Лектор: Артур Кадурин
    Современные нейронные сети для задач компьютерного зрения и обработки естественных языков
    В этом модуле мы разберем:
    i. Современные архитектуры сверточных и рекуррентных нейронных сетей.
    ii. Задачи сегментации и детекции объектов на изображении
    iii. Как устроено внимание и почему нейронные сети могут что-то забыть.

    Тема 1: Современные сверточные сети. Блоки и шорткаты.
    на этом занятии участники познакомятся с историей развития современных сверточных сетей, узнают что позволило сделать их по-настоящему глубокими и как это повлияло на область компьютерного зрения.
    Архитектуры: AlexNet, GoogLeNet, Inception, ResNet.
    12 февраля, 20:00 — 21:30
    Тема 2: Современные сверточные сети. Transfer learning и fine-tuning
    участники узнают что делать если данных недостаточно для обучения глубокой нейронной сети, как использовать знания из уже обученной нейронной сети и подстраивать такую сеть к конкретной задаче.
    15 февраля, 10:00 — 11:30
    Домашние задания: 1
    1 Transfer Learning vs Fine Tuning
    Цель: Используя датасет занятия (https://dropmefiles.com/u1iLk) реализовать подходы Transfer Learning и Fine Tuning с использованием VGG16 модели на Pytorch
    Тема 3: Современные рекуррентные сети. Внимание.
    тема посвящена тому, как “научить” нейросеть обращать внимание на наиболее важную информацию на изображении или в тексте. Мы узнаем, как использовать эту способность, чтобы искать логически связанные блоки информации, чем это поможет при машинном переводе, поиске ответов на вопросы, аннотации изображений.
    Архитектуры: Attention, Seq2Seq, PointerNetworks
    19 февраля, 20:00 — 21:30
    Тема 4: Современные рекуррентные сети. Трансформеры.
    мы разберемся, как можно использовать только attention-слои для Natural Language Inference, а также разберемся, как трнсформер позволяет создать эмбеддинги, учитывающими контекст при кодировании многозначных слов.
    Архитектуры: Attention is all you need(transformer), ELMo, BERT
    22 февраля, 10:00 — 11:30
    Тема 5: Катастрофическое забывание.
    архитектуры: https://arxiv.org/pdf/1612.00796.pdf
    26 февраля, 20:00 — 21:30
    Тема 6: Metric-learning и обучение без примеров
    мы научимся отображать объекты в пространство с метрикой и использовать такое представление для поиска похожих объектов и решения задачи классификации при отсутствии данных.
    Архитектуры: DSSM
    29 февраля, 10:00 — 11:30
    Тема 7: Глубокие сверточные сети. Сегментация
    на занятии мы разберемся, как при помощи нейронной сети сегментировать изображение, какие для этого есть архитектуры, что за принципы лежат в основе UNet и DeepLab.
    Архитектуры: UNet, DeepLab
    4 марта, 20:00 — 21:30
    Тема 8: Глубокие сверточные сети. Детекция.
    мы разберем принципы работы нейронных сетей для детекции объектов: от эволюцию от первых “чисто” нейросетевых алгоритмов до современных архитектур, работающих за “один взгляд” - YOLO, SSD
    Архитектуры: R-CNN, Faster-RCNN, YOLO, Single Shot Detector
    7 марта, 10:00 — 11:30
    Нейронные сети для слабоформализуемых задач
    В этом модуле мы научимся:
    i. Решать задачи с необычной структурой данных или отсутствием данных.
    ii. Создавать новые объекты и определять их “реалистичность”
    iii. Имитировать поведение людей и разбираться в их скрытых мотивах
    Тема 1: Генеративные состязательные сети
    на занятии мы разберем, как нейронная сеть учится обманывать другую нейронную сеть, и как от этого они обе становятся лучше, а мы получаем генератор качественных данных
    Архитектуры: GAN (Images)
    11 марта, 20:00 — 21:30
    Домашние задания: 1
    1 GANs
    1. Сделать условный GANs — класс подается на вход Генератору и Дискриминатору
    2. Сделать Adversarial Autoencoder — автокодировщик с лоссом от Дискриминатора вместо dKL
    Тема 2: Вариационный и состязательный автокодировщики
    21 марта, 10:00 — 11:30
    Домашние задания: 1
    1 Вариационный автокодировщик
    Реализовать VAE в pytorch для MNIST датасета. Визуализировать полученный результат.
    Тема 3: Доменная адаптация и условная генерация
    мы разберем подходы к обучению нейронных сетей на многомодальных данных, способы целенаправленного забывания информации и применение состязательного фреймворка для “честной” условной генерации.
    Архитектуры: Conditional GAN
    25 марта, 20:00 — 21:30
    Домашние задания: 1
    1 Условная генерация
    Обучить две версии CAAE — "частную" и "нечестную", преобразовать с их помощью исходные данные в латентное представление и обучить 3 классификатора — один на исходных данных и два на кодах, полученных из "честного" и "нечестного" CAAE. Сравнить качество классификации.
    Необязательная часть:
    Сделать перенос стиля с одной цифры на другие с помощью "честного" CAAE
    Тема 4: Генеративные модели для текстов
    на этом занятии мы познакомимся с методом Professor forcing, научимся использовать идеи обучения с подкреплением для генерации текстов, а также, узнаем как пропускать градиент через дискретные объекты с помощью репараметризации
    Архитектуры: Professor forcing, ORGAN, Gumbel trick
    28 марта, 10:00 — 11:30
    Тема 5: Обратное обучение с подкреплением
    на этом занятии мы разберем как имитировать поведение эксперта, что делать если награды неизвестны и можно ли назначать награды нейронной сетью.
    1 апреля, 20:00 — 21:30
    Тема 6: Глубокое обучение с подкреплением
    участники узнают как же Google удалось победить чемпиона мира в игру го и что еще можно сделать таким же способом.
    Архитектуры: AlphaGo
    4 апреля, 10:00 — 11:30
    Тема 7: Сверточные и рекуррентные сети на графах
    мы разберем архитектуры позволяющие работать с данными имеющими графовую структуру.
    Архитектуры: MPNN, GCN, DNC
    8 апреля, 20:00 — 21:30
    Тема 8: Сферические свертки и множества точек
    участники узнают как применять непрерывные свертки для данных имеющих пространственную структуру.
    Архитектура: SchNet, PointNet
    11 апреля, 10:00 — 11:30
    Проектная работа
    В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


    Работа над проектом проходит поэтапно:
    1. Выбор тематики.
    2. Сбор и подготовка соответствующих данных.
    3. Построение и обучение генеративной модели


    Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.
    Тема 1: консультация по проектной работе
    обзор выпускной работы. Постановка задачи. Предоставление необходимых для выполнения выпускной работы материалов
    15 апреля, 20:00 — 21:30
    Домашние задания: 1
    1 Выпускная работа
    Цель: В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики. Работа над проектом проходит поэтапно: 1. Выбор тематики. 2. Сбор и подготовка соответствующих данных. 3. Построение и обучение генеративной модели Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации. Примеры тем проекта: имплементация универсального класса оптимизатора, обобщающего различные методы градиентного спуска для PyTorch; состязательная нейронная сеть для порождения изображений рукописного текста с заданным стилем; генеративная модель повышения разрешения изображений; рекуррентная состязательная seq2seq-архитектура для порождения стихотворений на основе обычного текста.
    Тема 2: консультация по проектной работе
    18 апреля, 10:00 — 11:30
    Тема 3: защита проектной работы
    22 апреля, 20:00 — 21:30
    Выпускной проект
    В рамках курса предусмотрена защита проекта. Он представляет собой генеративную модель для порождения текста заданного стиля или изображений заданной тематики.


    Работа над проектом проходит поэтапно:
    1. Выбор тематики.
    2. Сбор и подготовка соответствующих данных.
    3. Построение и обучение генеративной модели


    Проект выполняется программистом в течение двух недель после прохождения курса. Готовое решение должно включать в себя код модели и ее обучения на Python, описание архитектуры модели, отчет об обучении модели и примеры генерации.


    Примеры тем проекта:

    • имплементация универсального класса оптимизатора, обобщающего различные методы градиентного спуска для PyTorch;

    • состязательная нейронная сеть для порождения изображений рукописного текста с заданным стилем;

    • генеративная модель повышения разрешения изображений;

    • рекуррентная состязательная seq2seq-архитектура для порождения стихотворений на основе обычного текста.

    Прошедшие открытые вебинары по курсу
    Открытый вебинар — это настоящее занятие в режиме он-лайн с преподавателем курса, которое позволяет посмотреть, как проходит процесс обучения. В ходе занятия слушатели имеют возможность задать вопросы и получить знания по реальным практическим кейсам.
    Регуляризация или ограничения, которые делают нас лучше
    Артур Кадурин
    Учим нейронную сеть копировать почерк
    Артур Кадурин
    После обучения вы

    • получите материалы по всем пройденным занятиям (презентации, видеозаписи вебинаров, примеры кодов на Python);

    • станете специалистом в такой сфере, как глубокое машинное обучение;

    • получите сертификат об окончании курса;

    • повысите свои знания до уровня Middle/Senior;

    • получите приглашение пройти собеседование в компаниях-партнёрах (в случае успешного освоения программы на курсе «Нейронные сети на Python»).

    Дата выдачи сертификата: 5 августа 2020 года
    Ваш сертификат

    онлайн-образование

    Сертификат №0001

    Константин Константинопольский

    Успешно закончил курс «Нейронные сети на Python»
    Выполнено практических заданий: 16 из 16

    Общество с ограниченной ответственностью “Отус Онлайн-Образование”

    Город:
    Москва

    Генеральный директор ООО “Отус Онлайн-Образование”
    Виталий Чибриков

    Лицензия на осуществление образовательной деятельности
    № 039825 от 28 декабря 2018г.

    онлайн-образование

    Сертификат №0001

    Константин Константинопольский

    Успешно закончил курс «Нейронные сети на Python»
    Выполнено практических заданий: 16 из 16

    Общество с ограниченной ответственностью “Отус Онлайн-Образование”

    Город:
    Москва

    Генеральный директор ООО “Отус Онлайн-Образование”
    Виталий Чибриков

    Лицензия на осуществление образовательной деятельности
    № 039825 от 28 декабря 2018г.