Практическое руководство по запуску больших языковых моделей (LLM) на локальном оборудовании. Курс ориентирован на пользователей, которым важна конфиденциальность данных, работа в офлайн-режиме и отсутствие расходов на облачные API. Материал охватывает весь цикл: от выбора подходящего «железа» до интеграции моделей в собственные приложения.
Программа построена вокруг двух основных инструментов: LM Studio и Ollama. Вы научитесь подбирать модели (Llama, Gemma, DeepSeek), понимать принципы квантования, позволяющие запускать тяжелые ИИ-системы на обычном ПК, и настраивать параметры генерации (температура, контекстное окно). Курс включает практические кейсы: распознавание текста на изображениях (OCR), анализ PDF-документов и генерацию программного кода. Отдельное внимание уделено работе с API, что позволит подключать локальные модели к внешним скриптам на Python или JavaScript.
Курс состоит из 58 лекций общей длительностью около 4 часов. Технический бэкграунд не обязателен, достаточно понимания основ работы с чат-ботами. Минимальное требование — 8 ГБ оперативной памяти (желательно с поддержкой видеокарты).
Отзывов пока нет. Будьте первым!