Вакансия в архиве
Работодатель, вероятно, уже нашел нужного кандидата и больше не принимает отклики на эту вакансию
Data Office появился пару лет назад. Наша команда:
• строит хранилище данных для VK;
• запустила Data Portal как отдельный сервис для удобного взаимодействия с данными; основные наши пользователи — маркетологи, менеджеры продуктов, аналитики, дата-сайентисты;
• провела десятки обучающих мероприятий для менеджеров и аналитиков;
• организовала сообщества DS/ML и Analytics и объединила дата-сайентистов и аналитиков всех продуктов VK;
• провела сотни A/B-тестов и продуктовых исследований.
Каждый день мы работаем с огромными объемами данных (50 петабайт), используем современный стек технологий (Spark, Airflow, Presto, Vertica, ClickHouse) и разрабатываем современные дата-сервисы, которые помогают развиваться каждому продукту в компании.
За год наша команда выросла в пять раз. Основные функциональные направления нашей работы:
• Data Analytics;
• Data Engineering;
• Data Science;
• Product and Service Development.
Ищем специалиста, который будет проектировать и реализовывать серверные части продуктов.
Вам предстоит:
• создавать удобный и понятный API;
• проектировать схемы баз данных;
• реализовывать автоматические тесты;
• автоматизировать CI/CD-процессы;
• деплоить сервисы в Kubernetes;
• проводить ревью чужого кода.
У нас интересно, потому что вы сможете узнать, как устроены все продукты VK, поработать с их данными и реализовать с нуля новые проекты.
Мы ожидаем, что вы:
• программировали на Python не менее 2 лет;
• реализовывали серверную часть на одном из фреймворков — Django, Flask, FastAPI;
• знаете SQL, разбираетесь в реляционных СУБД — MySQL или PostgreSQL;
• работали с системами управления контейнеризацией — например, с Docker;
• писали unit-тесты для бэкенда;
• разрабатывали живые проекты или дорабатывали существующие решения;
• умеете работать в команде, вовлечены в процесс разработки, желаете развиваться и получать новые технические знания.
Будет плюсом, если вы:
• использовали инструменты для работы с большими объемами данных — ClickHouse, Airflow, Spark, Scala, Hadoop;
• работали с ОС семейства Linux.
Приглашаем специалиста, который сможет работать в комбинированном режиме в офисе в Москве или Санкт-Петербурге. Ждем ваших откликов. Удачи!
Работодатель, вероятно, уже нашел нужного кандидата и больше не принимает отклики на эту вакансию