Пожаловаться на объявление
ML Engineer (Middle+/Senior) - Москва
четверг, 5 марта 2026 г.
Параметры объявления
Город:
Москва
Тип предложения:
Предложение
Должность:ML Engineer (Middle+/Senior)
Тип занятости:Полная
График работы:Полный день
Опыт работы:от 1 до 3 лет
Зарплата:
от 250 000 до 400 000 руб.
Текст объявления
О проекте
Разработка экосистемы сервисов на базе ИИ для автоматизированного анализа контента и аудитории в мессенджерах. Реализация RAG/LoRA и open source LLM для обработки TG-контента, семантического анализа, предсказаний, генерации контента и ИИ-отчетов.
Мы предлагаем:
— Конкурентоспособная заработная плата, 2 раза в месяц по 50% или 1 раз в месяц, согласовывается с сотрудником.
— График работы: 5/2. На старте — только работа в офисе (1-2 месяца), далее есть возможность рассмотреть гибридный график работы.
— Дружелюбная атмосфера и мотивированная команда профессионалов
— Возможность профессионального роста и обучения.
Обязательные требования
— Python (FastAPI, Pydantic) для ML-сервисов и API.
— RAG-пайплайны с векторными БД (PGVector, FAISS).
— LoRA/PEFT для fine-tuning open source LLM (Llama, Mistral, Qwen).
— Развертывание моделей (Docker, vLLM, TGI, ONNX Runtime) на GPU/CPU.
— Асинхронные запросы (asyncio, aiohttp), батчинг для оптимизации нагрузки и latency.
— Обработка больших данных: векторизация текста (Sentence Transformers), эмбеддинги.
— Интеграция с бэкендом (Postgres, Redis, очереди Celery/RQ) и мониторинг (Prometheus).
Желательные навыки
— Опыт анализа контента (NLP на русском, тематическое моделирование).
— Оптимизация инференса (квантизация GGUF, Flash Attention, multi-GPU).
— MLOps: CI/CD для моделей (GitHub Actions), A/B-тесты, drift-мониторинг.
— Fine-tuning open source LLM на доменных данных (TG-статистика, аудитория).
— Интеграция с парсерами (Telethon/Playwright) для real-time данных.
— NLP: NER, sentiment analysis, topic modeling (BERT, T5).
Требуемый опыт
— Не менее 3 лет в ML engineering (LLM, RAG, deployment).
— Проекты с production ML.
— Работа в команде (Git, code review, Agile).
— Деплой и поддержка высоконагруженных ML-сервисов.
Разработка экосистемы сервисов на базе ИИ для автоматизированного анализа контента и аудитории в мессенджерах. Реализация RAG/LoRA и open source LLM для обработки TG-контента, семантического анализа, предсказаний, генерации контента и ИИ-отчетов.
Мы предлагаем:
— Конкурентоспособная заработная плата, 2 раза в месяц по 50% или 1 раз в месяц, согласовывается с сотрудником.
— График работы: 5/2. На старте — только работа в офисе (1-2 месяца), далее есть возможность рассмотреть гибридный график работы.
— Дружелюбная атмосфера и мотивированная команда профессионалов
— Возможность профессионального роста и обучения.
Обязательные требования
— Python (FastAPI, Pydantic) для ML-сервисов и API.
— RAG-пайплайны с векторными БД (PGVector, FAISS).
— LoRA/PEFT для fine-tuning open source LLM (Llama, Mistral, Qwen).
— Развертывание моделей (Docker, vLLM, TGI, ONNX Runtime) на GPU/CPU.
— Асинхронные запросы (asyncio, aiohttp), батчинг для оптимизации нагрузки и latency.
— Обработка больших данных: векторизация текста (Sentence Transformers), эмбеддинги.
— Интеграция с бэкендом (Postgres, Redis, очереди Celery/RQ) и мониторинг (Prometheus).
Желательные навыки
— Опыт анализа контента (NLP на русском, тематическое моделирование).
— Оптимизация инференса (квантизация GGUF, Flash Attention, multi-GPU).
— MLOps: CI/CD для моделей (GitHub Actions), A/B-тесты, drift-мониторинг.
— Fine-tuning open source LLM на доменных данных (TG-статистика, аудитория).
— Интеграция с парсерами (Telethon/Playwright) для real-time данных.
— NLP: NER, sentiment analysis, topic modeling (BERT, T5).
Требуемый опыт
— Не менее 3 лет в ML engineering (LLM, RAG, deployment).
— Проекты с production ML.
— Работа в команде (Git, code review, Agile).
— Деплой и поддержка высоконагруженных ML-сервисов.
