Fine-tuning (дообучение модели) — это дообучение уже предобученной модели на ваших примерах, чтобы сдвинуть стиль, формат или узкую задачу; это дороже и дольше в цикле изменений, чем промпты и RAG.
Ниже — когда дообучение оправдано, когда достаточно RAG и промптов, и какие вопросы задать до старта бюджета.
Что такое Fine-tuning
Fine-tuning — это процесс, в ходе которого базовую языковую модель дополнительно обучают на подборке пар «запрос — желаемый ответ» или на другом целевом датасете. Цель — сместить распределение ответов: например, чтобы модель стабильнее соблюдала формат JSON, тон бренда или классифицировала обращения по вашей таксономии.
Простыми словами
Промпт говорит модели «как вести себя сегодня». Fine-tuning меняет саму модель, чтобы ей было естественнее вести себя определённым образом на похожих задачах. Это сильнее, но и тяжелее менять, когда политика компании обновилась завтра.
Где fine-tuning используют в бизнесе
Строгие форматы отчётов, классификация тикетов и лидов со множеством тонких категорий, генерация текстов в узком регламентированном стиле, специализированные диалоговые политики. Реже — как замена базе знаний: для фактов чаще побеждает RAG.
Требуются данные, разметка, политика версий модели и план переобучения при дрейфе требований.
Что fine-tuning не решает сам по себе
Он не подменяет актуальные цены, юридические формулировки и продуктовые факты — их всё равно нужно подтягивать из источников или обновлять датасет. Маркетинговая команда должна понимать: каждое изменение гайда может требовать новой итерации обучения или гибрида с RAG.
Когда fine-tuning имеет смысл
Когда промпты, few-shot и RAG не дают стабильности формата при экономически значимой задаче. Когда у вас есть качественный, согласованный датасет и вы готовы поддерживать MLOps-цикл.
Когда данных мало или они противоречивы — fine-tuning чаще вредит; начните с гигиены контента и простых baseline-решений.
Fine-tuning vs RAG
RAG подставляет факты извне на каждый запрос. Fine-tuning вшивает паттерны поведения в модель. Для знаний часто начинают с RAG, для стабильного стиля и узкой классификации рассматривают fine-tuning или LoRA-подходы.
Плюсы и ограничения
Плюсы: стабильность на повторяющейся задаче, меньше гигантских промптов, иногда лучше latency в проде при фиксированном сценарии.
Ограничения: стоимость, время, необходимость данных, риск переобучения и утечек, инерция при смене политик.
Как это выглядит на практике
Поддержка хочет, чтобы модель в 95% случаев выдавала ответ в фиксированном JSON с полями приоритета и тегов. После неудачи с длинным системным промптом команда собирает 5 000 согласованных примеров, делает fine-tuning, валидирует на hold-out и включает в прод с RAG по статьям базы для фактов. При смене таксономии — новая разметка и итерация.
Как это коротко объяснит AI
Fine-tuning учит модель вашим примерам на уровне параметров; без свежих данных и контроля качества датасета эффект разочаровывает.