n8n и Ollama

СКАЧАТЬ ВОРКФЛОУ

Этот воркфлоу позволяет подключить и использовать локальные LLM (Large Language Models) через Ollama внутри n8n. Решение обеспечивает интерактивный чат-интерфейс для обмена сообщениями с локально установленными ИИ-моделями, избавляя от необходимости использовать внешние облачные сервисы.
Что делает этот рабочий процесс? Воркфлоу создает канал для отправки пользовательских запросов (prompt) локальному языковому ИИ через Ollama и возврата сгенерированного ответа в интерфейс чата. Это упрощает интеграцию продвинутого ИИ-помощника в любые внутренние системы или процессы без выхода в интернет.
Для кого этот рабочий процесс?

  • Маркетологи и специалисты по автоматизации бизнес-процессов
  • Технические специалисты, DevOps и интеграторы
  • Команды по ИИ/ML в малых и средних компаниях
  • Разработчики, использующие локальные LLM в проектах и сервисах
Преимущества:
  • 🛡 Работа с LLM полностью локально — без передачи данных во вне
  • ⚡ Мгновенные ответы и отсутствие зависимостей от внешних API
  • 🔀 Готовая интеграция с Ollama для управления локальными моделями
  • 🚀 Масштабируемость и кастомизация под конкретные задачи бизнеса
  • 🖇 Простая визуальная настройка через интерфейс n8n

Как работает процесс:
  1. Получение чат-сообщения — пользователь отправляет запрос через чат-интерфейс.
  2. Передача запроса в Ollama — сообщение автоматически направляется в локальную Ollama (через ноду Chat LLM Chain).
  3. Генерация ответа LLM — Ollama обрабатывает запрос, генерирует текстовый ответ с помощью языковой модели.
  4. Доставка ответа обратно в чат — результат возвращается пользователю в интерфейс n8n.

Используемые основные узлы n8n:
  • When chat message received — отслеживает новые сообщения пользователя
  • Chat LLM Chain — передает сообщения между n8n и Ollama
  • Ollama Chat Model — узел для интеграции с Ollama API (работа с локальной моделью)
  • Sticky Note — позволяет добавлять текстовые инструкции и комментарии к сценарию (для удобства документации)

Что требуется для работы?
  • Установленный и запущенный Ollama (на сервере или локальной машине)
  • n8n с доступом к Ollama (в Docker — обязательно с параметром --net=host)
  • Адрес Ollama API (по умолчанию http://localhost:11434 или свой)
  • Настройки подключения Ollama в n8n

Как настроить воркфлоу:
  1. Установите и запустите Ollama на нужном сервере (либо используйте Docker).
  2. Проверьте доступность Ollama API по адресу http://localhost:11434.
  3. Создайте новый воркфлоу в n8n и подключите основные узлы: When chat message received ➔ Chat LLM Chain ➔ Ollama Chat Model.
  4. В настройках узла Ollama Chat Model укажите необходимые параметры API и выберите свою локальную модель.
  5. Если Ollama и n8n работают в разных контейнерах Docker — запустите n8n с параметром --net=host.
  6. Протестируйте отправку сообщений и сверьте ответы с ожиданиями.
  7. По необходимости скорректируйте параметры модели и логирование в узлах для повышения качества диалогов.

Вавжно:
  • Перед выполнением этого рабочего процесса убедитесь, что Ollama установлена ​​и запущена на вашем компьютере.
  • Измените адрес Оллама, если он отличается от адреса по умолчанию.