📚
Модуль 6.2: RAG — агент с базой знаний
01
Что такое RAG: архитектура, когда нужен
RAG — шпаргалка для LLM. Разбираем архитектуру Indexing → Retrieval → Generation, сравниваем с fine-tuning и long context.
02
Embeddings: модели, провайдеры, размерности
Эмбеддинги превращают текст в вектор, сохраняя смысл. Cosine similarity, модели OpenAI/Cohere, генерация на TypeScript.
03
Векторные БД: Qdrant vs Pinecone vs ChromaDB
Сравнение векторных баз данных. Поднимаем Qdrant в Docker, создаём коллекцию, индексируем документы, ищем похожие.
04
Retrieval: semantic, hybrid search, reranking
Семантический vs ключевой поиск. Гибридный поиск через RRF, reranking через Cohere — золотой стандарт RAG.
05
RAG-агент: поиск как tool, chunking стратегии
Chunking стратегии (fixed, recursive, semantic), поиск как tool агента, полный пайплайн от документа до ответа.
06
Оценка качества RAG: метрики, RAGAS
Precision, recall, faithfulness, relevancy — четыре метрики RAG. Evaluation dataset, LLM-as-judge, дебаг плохих ответов.