RAG – это сокращение от Retrieval Augmented Generation, или "генерация с дополненной выборкой". Это один из самых популярных способов заставить LLM-модели (типа GPT, Claude, Gemini) работать с внешними данными – теми, которых нет в их обучении. ## **Какие проблемы решает RAG?** Большие языковые модели обучаются на огромных наборах данных, но: 1. **Они не видят ваши приватные данные.** Документы компании, база знаний, переписки, инструкции – всё это не входит в их обучение. 2. **Они не видят свежие данные.** Даже самая новая модель обучалась несколько месяцев назад. То, что произошло вчера – ей неизвестно. 3. **Даже самый большой датасет – конечный.** У моделей есть "объём знаний", сотни миллиардов токенов, но всё равно это сильно меньше, чем вся информация, нужная конкретному бизнесу. Все эти проблемы легко решаются с помощью RAG: вместо того чтобы полагаться только на знания модели, мы можем подать ей необходимые внешние данные (в виде документов, доступа к БД итд) прямо в момент запроса – модель использует их как контекст, сопоставит с вопросом и даст актуальный, основанный на этих данных ответ (даже если этих данных не было в её обучении).