ML Engineer (Middle+/Senior) - Москва

четверг, 14 мая 2026 г.

Параметры объявления

Город: Москва
Тип предложения: Предложение
Должность:ML Engineer (Middle+/Senior)
Тип занятости:Полная
График работы:Полный день
Опыт работы:от 1 до 3 лет
Зарплата: от 200 000 до 300 000 руб.

Контактные данные

Контактное лицо Виктор (ООО "КОМБЛОК")
Телефон +7(933)399-37-25

Текст объявления

О проекте:

Разработка экосистемы сервисов на базе ИИ для автоматизированного анализа контента и аудитории в мессенджерах. Реализация RAG/LoRA и open source LLM для обработки TG-контента, семантического анализа, предсказаний, генерации контента и ИИ-отчетов. Ищем сильного инженера, готового автономно закрывать задачи по подготовке данных, дообучению моделей и их эффективному развертыванию на собственных мощностях.

Мы предлагаем:
Стабильный доход: конкурентоспособная заработная плата. Выплаты 2 раза в месяц по 50% или 1 раз в месяц (согласовывается с сотрудником).
Гибкий формат: график 5/2. На старте (первые 2 месяца) — работа в офисе, далее возможен переход на гибридный формат.
Профессиональную среду: мотивированная команда, отсутствие бюрократии, возможность напрямую влиять на архитектуру ИИ-сервисов.
Развитие: реальные возможности для профессионального роста и обучения.

Обязательные требования:
Инфраструктура и GPU: практический опыт работы с bare-metal серверами и видеокартами Nvidia. Умение конфигурировать CUDA, драйверы, мониторить утилизацию памяти VRAM и решать проблемы OOM.
Автономность (Solo-развертывание): способность самостоятельно «под ключ» развернуть open-source модель на собственном сервере — от настройки окружения до оптимизации инференса.
Fine-tuning: глубокие знания и коммерческий опыт дообучения LLM (Llama, Mistral, Qwen и др.) с использованием LoRA / QLoRA / PEFT на доменных данных.
RAG-архитектура: экспертные знания пайплайнов Retrieval-Augmented Generation. Опыт интеграции и настройки векторных баз данных (PGVector, FAISS).
Контейнеризация и оркестрация: свободное владение Docker и Docker Compose для локальной сборки и деплоя ML-сервисов.
Сервинг моделей: опыт работы с фреймворками высокопроизводительного инференса (vLLM, TGI, ONNX Runtime).
ML-Бэкенд: уверенный Python (FastAPI, Pydantic), асинхронное программирование (asyncio, aiohttp) и батчинг запросов для минимизации latency.
Данные и Эмбеддинги: векторизация текста (Sentence Transformers), работа с большими массивами текстовых данных, интеграция с Postgres и Redis.

Желательные навыки:
Оптимизация инференса: опыт квантизации моделей (GGUF, AWQ, GPTQ), применение Flash Attention и распределение нагрузки на multi-GPU.
NLP & Парсинг: опыт извлечения сущностей (NER), анализа тональности и тематического моделирования. Опыт интеграции с парсерами (Telethon / Playwright) для real-time данных.
Очереди и асинхронность: опыт работы с Celery / RQ для ресурсоемких фоновых задач ML.
MLOps: базовый мониторинг моделей (Prometheus, Sentry, drift-мониторинг).

Требуемый опыт:
Не менее 3 лет в коммерческой ML-разработке (с фокусом на LLM, RAG и инфраструктуру деплоя).
Подтвержденный опыт вывода ML-сервисов в Production на выделенных (собственных/арендованных) GPU-серверах.
Самостоятельность: опыт ведения ML-фич в одиночку от R&D до деплоя.
Опыт командной работы (Git, Code Review, Agile).