RAG – это сокращение от Retrieval Augmented Generation, или "генерация с дополненной выборкой". Это один из самых популярных способов заставить LLM-модели (типа GPT, Claude, Gemini) работать с внешними данными – теми, которых нет в их обучении.
## **Какие проблемы решает RAG?**
Большие языковые модели обучаются на огромных наборах данных, но:
1. **Они не видят ваши приватные данные.**
Документы компании, база знаний, переписки, инструкции – всё это не входит в их обучение.
2. **Они не видят свежие данные.**
Даже самая новая модель обучалась несколько месяцев назад. То, что произошло вчера – ей неизвестно.
3. **Даже самый большой датасет – конечный.**
У моделей есть "объём знаний", сотни миллиардов токенов, но всё равно это сильно меньше, чем вся информация, нужная конкретному бизнесу.
Все эти проблемы легко решаются с помощью RAG: вместо того чтобы полагаться только на знания модели, мы можем подать ей необходимые внешние данные (в виде документов, доступа к БД итд) прямо в момент запроса – модель использует их как контекст, сопоставит с вопросом и даст актуальный, основанный на этих данных ответ (даже если этих данных не было в её обучении).