Этот воркфлоу позволяет подключить и использовать локальные LLM (Large Language Models) через Ollama внутри n8n. Решение обеспечивает интерактивный чат-интерфейс для обмена сообщениями с локально установленными ИИ-моделями, избавляя от необходимости использовать внешние облачные сервисы. Что делает этот рабочий процесс? Воркфлоу создает канал для отправки пользовательских запросов (prompt) локальному языковому ИИ через Ollama и возврата сгенерированного ответа в интерфейс чата. Это упрощает интеграцию продвинутого ИИ-помощника в любые внутренние системы или процессы без выхода в интернет. Для кого этот рабочий процесс?
Маркетологи и специалисты по автоматизации бизнес-процессов
Технические специалисты, DevOps и интеграторы
Команды по ИИ/ML в малых и средних компаниях
Разработчики, использующие локальные LLM в проектах и сервисах
Преимущества:
🛡 Работа с LLM полностью локально — без передачи данных во вне
⚡ Мгновенные ответы и отсутствие зависимостей от внешних API
🔀 Готовая интеграция с Ollama для управления локальными моделями
🚀 Масштабируемость и кастомизация под конкретные задачи бизнеса
🖇 Простая визуальная настройка через интерфейс n8n
Как работает процесс:
Получение чат-сообщения — пользователь отправляет запрос через чат-интерфейс.
Передача запроса в Ollama — сообщение автоматически направляется в локальную Ollama (через ноду Chat LLM Chain).
Генерация ответа LLM — Ollama обрабатывает запрос, генерирует текстовый ответ с помощью языковой модели.
Доставка ответа обратно в чат — результат возвращается пользователю в интерфейс n8n.
Используемые основные узлы n8n:
When chat message received — отслеживает новые сообщения пользователя
Chat LLM Chain — передает сообщения между n8n и Ollama
Ollama Chat Model — узел для интеграции с Ollama API (работа с локальной моделью)
Sticky Note — позволяет добавлять текстовые инструкции и комментарии к сценарию (для удобства документации)
Что требуется для работы?
Установленный и запущенный Ollama (на сервере или локальной машине)
n8n с доступом к Ollama (в Docker — обязательно с параметром --net=host)
Адрес Ollama API (по умолчанию http://localhost:11434 или свой)
Настройки подключения Ollama в n8n
Как настроить воркфлоу:
Установите и запустите Ollama на нужном сервере (либо используйте Docker).
Проверьте доступность Ollama API по адресу http://localhost:11434.
Создайте новый воркфлоу в n8n и подключите основные узлы: When chat message received ➔ Chat LLM Chain ➔ Ollama Chat Model.
В настройках узла Ollama Chat Model укажите необходимые параметры API и выберите свою локальную модель.
Если Ollama и n8n работают в разных контейнерах Docker — запустите n8n с параметром --net=host.
Протестируйте отправку сообщений и сверьте ответы с ожиданиями.
По необходимости скорректируйте параметры модели и логирование в узлах для повышения качества диалогов.
Вавжно:
Перед выполнением этого рабочего процесса убедитесь, что Ollama установлена и запущена на вашем компьютере.
Измените адрес Оллама, если он отличается от адреса по умолчанию.