CV Денис Ириняков

Фото

Middle Data Engineer

Опытный инженер данных с глубокими знаниями в проектировании и разработке ETL/ELT-систем. Специализируюсь на создании эффективных решений для обработки, анализа и визуализации больших объемов данных с использованием современных технологий и методологий. Ориентирован на оптимизацию процессов, повышение производительности и обеспечение высокого качества данных. Имею бэкграунд data science и аналитики, что позволяет эффективно использовать AI-инструменты. Стремлюсь работать в инновационной команде профессионалов, где могу применить свой опыт для решения сложных технических задач и достижения амбициозных целей.

Контактный email: irinyakov2016@yandex.ru

Любимые инструменты

Greenplum

Работаю с Greenplum для проектирования высоконагруженных аналитических систем. Разрабатываю оптимизированные схемы данных, высокопроизводительные хранимые процедуры и функции на PL/pgSQL. Применяю техники партиционирования, индексации и параллельной обработки. Использую методологии Anchor и Data Vault для создания масштабируемых и гибких баз данных.

Python

Использую Python для разработки и анализа данных: от высоконагруженных ETL-пайплайнов и масштабируемых веб-сервисов до продвинутых ML-моделей и интерактивных визуализаций. Создаю эффективный код с использованием asyncio, многопоточности и оптимизации узких мест. Разрабатываю модульные, тестируемые решения с применением современных фреймворков и библиотек (FastAPI, SQLAlchemy, Pandas, Scikit-learn, Plotly и т.д.). Автоматизирую бизнес-процессы через интеграционные решения, включая Telegram-ботов и системы с графическим интерфейсом на PyQt.

Shell

Написал множество скриптов на Bash и PowerShell для автоматизации процессов. Использую эти инструменты для управления файловой системой, git, управления процессами, создания резервных копий и мониторинга серверов. Работаю с cron и Windows Task Scheduler для планирования задач. Очень полезны, когда правила безопасности не допускают другого софта.

Docker

Применяю Docker для контейнеризации приложений. Постоянно пишу Dockerfile для разных проектов, используя многоэтапные сборки для минимизации размера образов, docker-compose для оркестрации контейнеров и CI/CD пайплайны с помощью GitHub Actions и GitLab Runner.

Kafka

Использовал Apache Kafka для обработки потоковых данных и влюбился в этого брокера. Kafka Streams для преобразования данных, разделение тем на партиции для повышения производительности.

Apache Airflow

Работаю с Apache Airflow для создания надежных систем оркестрации данных. Разработал масштабируемый подход для автоматической генерации DAG'ов из декларативных YAML-конфигураций, что позволило сократить время разработки на 40% и минимизировать ошибки. Реализовал систему динамической генерации задач на основе метаданных, обеспечивающую адаптивность пайплайнов к изменениям в структуре данных.

Selenium

Использую Selenium для автоматизации взаимодействия с веб-браузерами. Разрабатываю скрипты для парсинга данных с динамически генерируемых сайтов, тестирования пользовательских сценариев и автоматизации рутинных действий в браузере.

PostgreSQL

Больше всего работаю с PostgreSQL для создания баз данных, оптимизации запросов и реализации сложных бизнес-логик через хранимые процедуры и триггеры.

LLM

Использую LLM и агентоы для автоматизации простых задач и генерации кода, что значительно ускоряет прцоесс работы. Работал с Ollama, Huggingface, n8n, подключал MCP серверы. Использую в качестве ассистентов Cursor, Lingma, Windsuf

Hard skills

ETL/ELT
Хранение данных (PSQL, CH, GP)
SQL + Pl/pgSQL
Контейнирезация(Docker, VM)
Shell
Python
С/C++
ML и анализ данных
Архитектура БД (DWH, DL, DM)
Оркестрация (Apache Airflow)
CI/CD
Kafka, Redis
Hadoop экосистема
Go

Soft skills

Командная работа
Критическое мышление
Адаптивность
Лидерство
Коммуникабельность

Business skills

Инновационное мышление
Качество данных
Информационная безопасность
Стандарты
Документация

Опыт работы

Data Engineer в Axenix, г. Санкт-Петербург (Август 2024 – Настоящее время)

Разработка ETL/ELT потоков в Airflow через YAML + JSON на фреймворке Python

  • Разработал модульную систему динамической генерации DAG'ов на основе YAML-конфигураций, что позволило сократить время настройки новых ETL-процессов на 40%.
  • Автоматизировал процесс тестирования качества данных с использованием Python, Bash и SQL, создав инструмент для детектирования аномалий и проверки целостности данных.
  • Преобразовал сложные маппинги бизнес-логики в эффективные ETL-потоки, улучшив производительность обработки данных на 30%.
  • Создал хранимые процедуры, функции, витрины и представления в Greenplum для поддержки операционных процессов в поддержке качества данных.
  • Обеспечил интеграцию различных источников данных (ClickHouse, Oracle, Hive).
  • Поддерживал архитектуру Data Vault 2.0, внедрял версионное хранение данных для обеспечения возможности отката изменений.
  • Осуществлял эффективную коммуникацию с представителями других команд.

Data Scientist в Spacecode, г. Краснодар (Апрель 2024 – Август 2024), удаленно

Разработка AI-решений для бизнеса

  • Разработал многофункционального ассистента на базе LLM с использованием моделей HuggingFace, RAG-подхода, LangChain и Unstructured через LLAMA_CPP/VLLM. Ассистент успешно применялся для автоматизации клиентской поддержки и анализа документов.
  • Создал систему динамического ценообразования с использованием интерпретируемых регрессионных моделей, что, по оценкам, позволит увеличить прибыль компании на 15%.
  • Использовал Apache Airflow для разработки ETL-пайплайна, обеспечивающего актуальность данных для ML-моделей.
  • Внедрил DVC для версионирования данных моделей, что значительно упростило их отслеживание и воспроизведение результатов.

Data Analyst в АСК «ДиректСервис», г. Новосибирск (Сентябрь 2023 – Январь 2025), удаленно

Разработка и поддержка системы управления данными

  • Реализовал с нуля enterprise-level Data Warehouse (DWH) на масштабах десятков терабайт данных, используя Greenplum и ClickHouse как основные хранилища.
  • Автоматизировал процесс обновления витрин данных, создав комплексный пайплайн на основе Shell-скриптов и Windows Task Scheduler, что сократило время обработки данных с нескольких часов до 30 минут.
  • Настроил механизм миграции данных из Greenplum/ClickHouse в PostgreSQL, обеспечив бесперебойную работу аналитических систем.
  • Совместно с системными аналитиками разработал методологии мониторинга и оптимизации производительности DWH, что позволило повысить скорость выполнения запросов на 50%.

ML Engineer в ООО «ColorDent», г. Москва (Июнь 2023 – Декабрь 2023), удаленно

Разработка ML-решений для стоматологической практики

  • Разработал ML-классификатор изображений зубов для диагностики заболеваний, используя OpenCV и TensorFlow Lite. Модель достигла точности более 95% на тестовых данных.
  • Интегрировал ML-модели в мобильное приложение с использованием MLflow для управления версиями моделей и DVC для версионирования данных.
  • Оптимизировал производительность модели для работы на устройствах с ограниченными ресурсами, что позволило использовать ее на мобильных платформах без значительной потери качества.
  • Разработал систему отслеживания метрик обучения моделей и внедрил автоматическое тестирование для обеспечения высокого качества решения.

Образование и полученные навыки

2022 2023 2024 2025
  • Основное обучение в школе 21.
  • C, bash, algorithmes
  • C, С++, Qt...
  • Python
  • SQL
  • bash
  • Go
  • Я.Практикум
  • DE школа
  • Greenplum
  • Hadoop
  • ML...
  • ML...
  • ML...
  • DS Club в Школе 21.
  • ColorDent
  • ML...
  • DS...
  • Kaggle competitions.
  • Selenium, nlp, автоматизация.
  • TG-bot.
  • TG-bot.
  • R, статистика, анализ данных.
  • Анализ данных: SQL, Python, R, SPSS, Statistica, Power BI, MS Office

Контакты

Email: irinyakov2016@yandex.ru Telegram: Денис Developer Portfolio GitHub Profile