Полный курс по разработке приложений с использованием больших языковых моделей (LLM) для Python разработчиков. Охватывает prompt engineering, function calling, fine-tuning, квантование, локальный запуск LLM, evaluation, оптимизацию inference, RAG, безопасность и LLMOps. Курс включает практические примеры интеграции с FastAPI.
Техники эффективного взаимодействия с LLM: zero-shot, few-shot, chain-of-thought, ReAct, prompt templates
Интеграция внешних инструментов: tool use, структурированные выводы, API integration, multi-tool workflows
Адаптация моделей под домен: full fine-tuning vs LoRA vs QLoRA, PEFT методы, подготовка датасетов
Оптимизация размера и скорости: GGUF, GPTQ, AWQ, INT8/INT4, trade-offs accuracy vs speed
Запуск моделей локально: Ollama, LM Studio, llama.cpp, vLLM, требования к железу
Метрики качества: Perplexity, BLEU, ROUGE, human evaluation, automated benchmarks
Ускорение работы: batching, caching, speculative decoding, continuous batching
Retrieval-Augmented Generation: когда использовать RAG vs fine-tuning, гибридные подходы
Защита от уязвимостей: prompt injection, jailbreaking, output filtering
Эксплуатация в production: monitoring, versioning, deployment, cost tracking