Специалисты
Образование:
Управление в технических системах, Бакалавр
Институт радиотехнических систем и управления ЮФУ, Таганрог, Россия
backend-разработчик с 5-летним опытом работы в создании серверных решений.
За это время успел поработать с различными языками программирования, но основное внимание уделяет разработке на Python с использованием FastAPI и Django. Обладает уверенными знаниями в работе с базами данных PostgreSQL и MongoDB, умеет проектировать эффективные схемы хранения данных и оптимизировать запросы.
Python, JavaScript (ES6+), Typescript, SQL, Framework/Libraries, Django, FastAPI, Celery, AWS, Heroku, PostgreSQL, MySQL, Git, Webpack, Open API, WebSocket, Testing, Unit testing, Application/Web, Servers, Nginx, Apache Kafka, RabbitMQ, CI/CD, Gitlab, Other, Agile, Scrum, Apache Airflow, Apache Hadoop, Apache Spark, Debezium, Kanban, Jira, Confluence, Docker, Kubernetes, Microservices, SOLID, Ajax, JSON, Unix/Linux, SSH
Под NDA #1 (Кибербезопасность)
Система поддержки и анализа кода для клиентов Заказчика. Команды разрабатывали и поддерживали ПО, для возможности использования безопасных продуктов. Команда занималась поддержкой статического анализатора кода "svace" и разработкой аналитических алгоритмов для анализа git репозиториев и кода в принципе. Также было интегрировано большое количество стандартных утилит(разархиваторы и тп), для того, чтобы была уверенность в их безопасности. Основная цель всего проекта - предоставить клиентам безопасный софт, для их пользования. От желаний клиента софт мог дополняться. Что было сделано: - Разработал модуль на Python для анализа истории Git-репозиториев, выявляющий подозрительные паттерны коммитов, такие как частые откаты, массовые изменения и скрытие уязвимостей. - Настроил окружение анализа кода в Docker-контейнерах, обеспечив изоляцию зависимостей и воспроизводимость результатов. - Реализовал систему плагинов для подключения сторонних анализаторов к ядру svace с возможностью обработки результатов и конвертации форматов отчетов. - Написал покрытие unit- и integration-тестами на PyTest для всех новых модулей Python, внедрил автоматический запуск тестов в пайплайне. - Оптимизировал парсинг результатов svace, ускорив обработку больших отчетов за счёт внедрения потоковой обработки и предварительной фильтрации. - Создавал и поддерживал сборочные конфигурации, Pipeline, Docker, Asgard, yaml-скрипты.
Python / С++ / BASH Docker / PyTest / Asgard
Сентябрь 2023 — Май 2025 месяцев
Под NDA #2 (Энергетика)
Стек проекта: Python / FastAPI / SQLAlchemy / PySpark / PostgreSQL / Redis / Kafka / Celery / Spark / Клиент — одна из крупнейших энергосбытовых компаний России. Большинство задач, связанных с документооборотом, сотрудники компании выполняли вручную. На это уходило много времени, а из-за человеческого фактора страдало качество и появлялись ошибки. Основной объем документов поступает от граждан и юридических лиц, и главной целью проекта стала автоматизация сбора, обработки и маршрутизации таких документов. Что было сделано: - Разработал сервис анализа юридических документов с обработкой содержимого и метаданных, включая парсинг, нормализацию и классификацию. - Настроил потребление сообщений из брокера Kafka, реализовав отказоустойчивый consumer для обработки событий в реальном времени. - Создал backend для пользовательского интерфейса: реализовал загрузку и выгрузку документов, а также CRUD-функциональность для работы с данными реестров через API. - Построил систему асинхронной обработки документов с очередями задач и кэшированием промежуточных результатов, обеспечив устойчивость и масштабируемость. - Внедрил Apache Spark для распределенной обработки и трансформации больших объемов данных из документов, включая очистку, агрегацию и извлечение структурированной информации. - Настроил Apache Airflow для управления и мониторинга ETL-пайплайнов: от поступления документов до их окончательной верификации и маршрутизации. - Упаковал все компоненты системы — анализатор, API, брокер, хранилище — в изолированные Docker-контейнеры с использованием docker-compose для локальной и серверной разработки. - Использовал Debezium между PostgreSQL и Kafka, обеспечив непрерывную синхронизацию состояния данных без прямых polling-запросов. - Интегрировал ClickHouse как систему аналитического хранилища: агрегированные события и обработанные документы передавались в ClickHouse для построения отчетов и аналитики по SLA, типам заявок и временным паттернам. - Реализовал скрипт автоматической очистки временных данных и освобождения памяти, настроенный на выполнение по расписанию через cron. - Написал модульные и e2e тесты для основных компонентов, включая API, Spark-задачи и Airflow DAG"и.
BASH / Cron / Docker
Январь 2022 — Август 2023 месяца
Под NDA #3 (Ритейл)
Стек проекта: Python / Django / RabbitMQ / PostgreSQL / Kubernetes Интеграции: СБИС / Sendsay / Hadoop Проект представляет собой корпоративное веб-приложение для управления складскими процессами на производственном или логистическом предприятии. Основной пользователь — сотрудники склада и операторы, ответственные за выполнение складских операций, а также супервайзеры, контролирующие эффективность работы персонала. Платформа автоматизирует ключевые этапы складской логистики и позволяет виртуализировать выполнение операций: приложение в реальном времени формирует инструкции для сотрудников в зависимости от контекста задачи, проверяет корректность введенных данных и регистрирует все действия. Каждое действие сопровождается фиксацией ответственного сотрудника, времени начала и завершения, что позволяет отслеживать производительность и строить аналитику эффективности персонала. Система способствует снижению количества ошибок, прозрачности процессов и увеличению скорости выполнения складских операций. Что было сделано - Разработал микросервисы на Python для управления ключевыми складскими задачами в рамках разделения монолитной архитектуры. - Провел рефакторинг кода при переходе на микросервисную структуру, улучшив масштабируемость и отказоустойчивость системы. - Оптимизировал SQL-запросы и взаимодействие с PostgreSQL, что позволило значительно сократить время отклика системы под нагрузкой. - Реализовал алгоритмы расчета эффективности сотрудников и бизнеспроцессов, с учетом времени выполнения задач и точности выполнения операций. - Интегрировал систему с СБИС для автоматической отправки юридически значимых документов, синхронизируя события склада с внешними сервисами. - Настроил асинхронное взаимодействие микросервисов с использованием RabbitMQ для обеспечения надежной очереди заданий и событий. - Настроил деплой и масштабирование микросервисов в кластере Kubernetes, включая проброс переменных окружения, liveness- и readiness-пробы. - Разработал логику контроля размещения объектов на складе в реальном времени, с возможностью отслеживания и переучета. - Настроил интеграцию с Sendsay для рассылки уведомлений и отчетов по ключевым складским событиям. - Реализовал экспорт и агрегацию данных из системы в Hadoop для последующего построения аналитических отчетов и прогнозной аналитики. - Настроил мониторинг очередей и микросервисов, что позволило оперативно выявлять узкие места и аномалии в работе.
Docker / PyTest
Июль 2020 – Декабрь 2021 месяц
Outist
Outist — это мобильное приложение (iOS, Android), представляющее собой социальную сеть для знакомств и совместного проведения мероприятий. Приложение не является новинкой, но обладает определенным набором интересных функций. Основная цель этого приложения - поиск новых знакомств и веселое времяпрепровождение. Приложение показывает людей, находящихся рядом с Вами, определяя схожие интересы. В данном приложении собирается статистика и отзывы о проведенных мероприятиях, в том числе у каждого пользователя. Пользователи могут обсуждать мероприятие прямо в приложении, благодаря реализованным групповым и личным чатам. Что было сделано: - Разработал backend с нуля для мобильного приложения на Python + Django REST Framework, реализовав масштабируемую и расширяемую архитектуру. - Спроектировал и реализовал модели пользователей, интересов, событий, чатов и связанных сущностей с учетом нормализации и производительности. - Реализовал механику отправки, принятия и отклонения заявок в друзья, обеспечив корректную логику взаимодействий между пользователями. - Разработал API для управления интересами, группами интересов и их привязкой к пользователям, с удобной структурой выдачи данных по группам. - Настроил механику участия в событиях с проверкой ролей, доступа и состояния каждого события. - Интегрировал сторонние API социальных сетей для обмена данными и авторизации (например, импорт аватаров или имени). - Разработал систему оценки и комментирования прошедших мероприятий, собрав базу для аналитики и отзывов. - Реализовал API для создания групповых чатов и личных переписок, включая рассылку сообщений участникам в режиме реального времени через WebSockets. - Обеспечил хранение и выдачу сложных связанных данных (пользователи, события, комментарии, интересы) с использованием сериализаторов DRF. - Развернул проект на облачной инфраструктуре Vultr с настройкой окружения, безопасности и мониторинга.
Стек проекта: Python / DRF / PostgreSQL Интеграции: Social networks / Sockets / Complex data through APIs / S3 хранилище / Vultr
Ноябрь 2019 — Июнь 2020 месяцев