Последние несколько лет работаю с большими данными как разработчик, Data Engineer и Data Scientist. Проекты в банках, телеком и розничных компаниях. Опыт работы с Hadoop (Cloudera, Hortonworks), MPP-системами (Teradata, Vertica), фреймворком Spark и Google Cloud Platform. Большой опыт в IT-инфраструктуре. Поработав и как Data Scientist, и как Data Engineer, понимаю, что без Data Engineer'а Data Scientist'у делать нечего.
Место работы: Сбербанк. Управление развития Корпоративной аналитической платформы. Ведущий эксперт по технологиям.
Образование: МИЭМ, специальность: прикладная математика.
Otus Certified Educator
Более 3 лет коммерческого опыта в качестве Data Engineer, Data Analyst в банковской и sales&marketing сферах, более 7 лет вовлечен в IT-сферу. Работаю с задачами в области Data Ingestion, ELT/ETL pipelines, анализа и визуализации данных, а также написания различных сервисов и скриптов на ЯП Python.
На данный момент - Middle+ Data Engineer в компании Wildberries, преподаватель в ОТУС на курсах DWH Analyst и Data Engineer.
Образование: магистратура - ВШЭ направления "Системная и программная инженерия" факультета Компьютерных Наук; бакалавриат - ВГУ, кафедра обработки информации и машинного обучения факультета Компьютерных Наук
ПАО Сбербанк
Руководитель направления, Сбербанк
10+ лет опыта промышленной разработки, в том числе создания и поддержания веб-приложений как в крупных компаниях так и в стартапах. 3 года разработки распределенных систем для крупных государственных заказчиков. Реализовал множество высоконагруженных и успешных проектов с “чистого листа”.
В данное время занимается full-stack разработкой для внутренних заказчиков в банке, решает задачи связанные с анализом и инженерией данных.
Опыт программирования на Java, Scala, Python, Javascript.
Широкий круг профессиональных интересов, из которых основные - построение распределенных систем и высоконагруженных сервисов.
Образование: бакалавриат УрФУ им. Б.Н. Ельцина “Информационные технологии”.
Занимается поддержкой и траблшутингом серверов MySQL, приложений, написанных на PHP, etc. Активно внедряет и использует докер со всей его инфраструктурой. Придерживается мнения, что всё должно быть декларативно описано, поэтому использует Ansible.
Разрабатывает и настраивает инфраструктуру для таких стартапов, как exposcan.ru, crispmessenger.com. Занимается мониторингом при помощи Zabbix и Prometheus, создаёт графики в Grafana.
Чтобы легко подстраиваться под требования бизнеса, деплоит и описывает процессы в Gitlab, собирает и обрабатывает логи в ELK и Graylog2. Любит и умеет пользоваться активным сетевым оборудованием вендора MikroTik.
Первый раз познакомился с вычислительной техникой 30 лет назад в далеком 1993 году. С тех пор с разной степенью вовлеченности в ИТ-процесс занимался организацией вычислительных сетей, серверных помещений - центров обработки данных. Был как простым специалистом, так и руководителем большого структурного подразделения служб ИТ регионального масштаба. Однако на протяжении всего времени так или иначе неразрывно связан с автоматизацией, программированием, построением архитектурных решений.
В 2002 году познакомился с Java, и с тех пор работает с технологиями на базе JVM. С 2021 года активно увлекся большими данными, чем и занят по настоящее время.
В 2022 году окончил курс на OTUS по программе Data-engineer.
В отрасли бэкенд-разработки на Java более 6 лет. Занимался fullstack-разработкой приложений, разработкой высоконагруженных compute-grid систем, а также микросервисов и etl-пайплайнов. Сейчас в роли старшего разработчика работаю над сервисами платежных систем в Unlimint.
Есть опыт работы с сервисами Hadoop (HDFS, HBase), оркестраторами (Airflow, Spring Cloud Data Flow), MPP-базами (Cassandra, Greenplum, Clickhouse).
Интересы: BigData, Blockchain, NFT
Образование: Master Degree in Computer Science and IT, ЮУрГУ, факультет ВШЭКН.
Более 10 лет развивает аналитику в компании. Среди достижений:
- Построение собственной системы сквозной вебаналитики;
- Построение аналитического хранилища на базе MPP Vertica;
- Организация процессинга данных на базе Spark, Kafka, HDFS;
- Выстраивание процессов работы с данными, включая data quality;
- Создание нескольких внутренних инстументов по работе и структурированию метаданных (Data Catalog);
- Построение системы корпоративной отчетности, в том числе realtime;
- Более 5 лет повышает Data Literacy внутри компании, проводя различные тренинги по работе с данными, инструментами, SQL;
Также вырастил несколько руководителей аналитики, которые теперь работают в крупных компаниях.
Основной фокус на понимании проблем бизнеса при работе с данными и их решение.
Выпускница магистерской программы “Informatique pour la Science de Données (Big Data)” университета Париж-Сакле.
С 2018 года специализируется на больших данных. Участвует в проектах разработки аналитических платформ данных, а также платформ обработки данных в режиме реального времени на 10000+ пользователей. Имеет сертификаты Databricks Spark&Scala и RedHat DevOps. В настоящее время работает со стриминговой обработкой (Kafka), а также внедряет практики DataOps (Gitlab CI/CD, Kubernetes, Liquibase, Airflow).