Заказ закрыт
Ищу ML/LLM инженера для обучения локальной модели

Бюджет: по договоренности
Задача: настроить и дообучить LLM (7B–30B) на предоставленном датасете для оффлайн/локального использования. Модель должна быть оптимизирована под VRAM и форматы FP16/INT4/GGUF, выдавать осмысленные ответы без мусора и галлюцинаций.

Что нужно сделать:

Полное обучение на всем датасете.

Подготовка финальных весов и документации для запуска и интеграции.

Требования к исполнителю:

Опыт работы с HuggingFace, PyTorch, DeepSpeed...

Опыт оптимизации LLM под GPU.

Навыки тестирования и оценки качества модели.
Опубликован 05.12.2025 в 13:49
Заказ находится в архиве

Выберите способ верификации:

Обновите страницу после прохождения верификации.