🧠
Модуль 6.0: Основы LLM и AI
01
Что такое LLM: токены, контекст, температура, модели
Разбираемся с фундаментом: как работают Large Language Models, что такое токены и контекстное окно, как настраивать temperature и top_p, обзор и сравнение основных моделей.
02
API провайдеров: Anthropic, OpenAI, OpenRouter
Практика: получаем API-ключи, делаем первые запросы через curl и TypeScript. Работаем с Anthropic SDK, OpenAI SDK и OpenRouter как единым шлюзом.
03
Промпт-инжиниринг: system/user/assistant, few-shot, CoT
Теория и практика промпт-инжиниринга: роли сообщений, few-shot обучение примерами, Chain-of-Thought для сложных задач, шаблоны промптов и частые ошибки.
04
Стриминг, structured output, мультимодальность
Продвинутые техники: стриминг ответов через SSE, структурированный вывод с Zod-валидацией, анализ изображений. Всё что нужно для production AI-приложений.