Fine-tuning языковых моделей: когда, зачем и как дообучать LLM Практическое руководство по fine-tuning LLM: LoRA, QLoRA, полное дообучение. Подготовка данных, выбор метода, оценка результатов.
Квантизация нейросетей: как уменьшить модель без потери качества Что такое квантизация LLM: GPTQ, GGUF, AWQ. Как сжать модель в 4 раза и запустить на потребительском GPU без заметной потери качества.
Векторные базы данных: как работает поиск по смыслу Как работают векторные базы данных: эмбеддинги, алгоритмы поиска, HNSW. Сравнение Pinecone, Weaviate, Qdrant, pgvector, Chroma.
Словарь терминов LLM: токены, температура, контекстное окно и другие понятия Толковый словарь терминов LLM и генеративного ИИ на русском языке: 40+ ключевых понятий с объяснениями.
Промпт-инжиниринг: как писать запросы к нейросетям Практическое руководство по промпт-инжинирингу. Техники few-shot, chain-of-thought, системные промпты — с примерами на русском языке.
Что такое LLM и как работают большие языковые модели Разбираем архитектуру больших языковых моделей: трансформеры, токенизация, обучение. Почему GPT, Claude и Llama отвечают так, будто понимают текст.