Подключение оффлайн модели для настройки Yandex Metrika MCP Server (Node.js)

17.10.2025

Дополнение к оригинальной статье Якова Осипенкова Yandex Metrika MCP Server.

Большое спасибо Якову за великолепную статью! Сопоставимых по удобству и легкости для воспроизведения материалов очень мало. Считаю Якова миссионером в мире веб-аналитики.

В статье Якова упоминалось: «что существуют локальные модели, которые полностью работают офлайн, прямо на вашем компьютере и не требуют постоянного подключения к Интернету. Можно скачать такую модель на компьютер и запускать ее через совместимый фреймворк (например, Ollama, Hugging Face, Local LLM).»

Здесь я хотел бы добавить информацию о том, как можно подключить уже обученную нейронную сеть, для того чтобы попробовать функционал, не прибегая к платным версиям. Я делал настройки используя рекомендации ChatGPT и DeepSeek. Но есть нюансы, на которые пришлось потратить время, чтобы всё заработало.

Все, что описано ниже сделано для устройств, работающих на Windows, так как я делал настройку именно на базе этой операционной системы. Сразу начну с последнего этапа – подключения модели.  Думаю, что все предыдущие шаги вы успешно выполнили, используя подробные инструкции из статьи Якова (скачали и настроили все необходимые компоненты: LobeChat, node, Git, yandex_metrika_mcp).

У LobeChat есть рекомендованный локальный провайдер, который позволяет использовать локальные модели – Ollama. И нам нужно установить Ollama на наш компьютер. Для этого скачайте установочный файл с официального сайта и далее установите программу следуя инструкции (просто кликая Next/Далее 😊)

Для этого скачайте установочный файл с официального сайта

Для этого скачайте установочный файл с официального сайта

Далее откройте PowerShell и введите команду ollama –version, для проверки:

Проверка версии

Далее нам нужно выбрать и скачать модель, которая поддерживает так называемый function calling и в тоже время будет посильна вашему железу.

Я пробовал три модели:

  • qwen2.5:7b-instruct
  • llama3.1:latest
  • llama3.1:8b

Чтобы скачать модель введите в PowerShell следующую команду:

ollama pull <название модели>

Например:

ollama pull llama3.1:8b

Скачивание любой модели потребует времени, так как это достаточно увесистые файлы.

Переходим к подключению локальной модели. Откройте LobeChat и перейдите в Settings. Чтобы перейти в Settings нужно в самом чате в нижнем меню нажать на крайне левую иконку, которая может иметь разный вид в зависимости от используемой модели:

Выбор модели

И далее нажать на иконку гайки напротив Ollama:

Выбор Ollama

! Несколько раз сталкивался с проблемой, что при этом раздел Settings не открывался. Справиться с этим мне удавалось только перезагрузкой ноутбука.

В открывшемся окне кликните на AI Service Provider, далее на Ollama:

Settings – AI Service Provide – Ollama

Переходим к настройкам подключения модели:

  • 1 шаг – нажимаем кнопку Fetch models, чтобы подтянуть скачанную модель;
  • 2 шаг – вводим ip адрес для соединения с моделью. Для этой модели;
  • 3 шаг – в выпадающие списке выбираем нашу модель;
  • 4  шаг – кликаем по кнопке Check для проверки, что связь с моделью установлена.

Настройки Ollama

Перед использование не забудьте активировать модель, включив бегунок в Model list:

Активация модели

И теперь, очень важный шаг, так как без него не связь с yandex_metrika_mcp не будет работать. Нам нужно в настройках модели включить галочку Support for Tool usage. Для этого открываем режим конфигурации модели:

Configure Model

Откроется следующее меню, где напротив Support for Tool usage нужно поставить галочку:

Галочка “Support for Tool usage”

Только после этого ваша модель сможет взаимодействовать с yandex_metrika_mcp и это будет видно по соответствующей иконке около модели:

Наша модель поддерживает function calls

И вверху чата:

Проверка

Далее можно начинать пользоваться. По моему опыту, модель думает достаточно долго, так как мощность моего железа не сопоставима с тем, что используется при подключении к online моделям (DeepSeek, ChatGPT и т.д.).

Проверить работу, можно, как было описано в статье Якова, например задать вопрос: Какие функции Яндекс Метрики тебе доступны? Модель серьёзно задумается, потом даст ответ:

Доступные функции для Яндекс Метрики

Далее можно уже задавать вопросы по конкретному аккаунту метрики, указав номер счетчика (если у вас, конечно, есть нему доступ).

Ещё раз спасибо Якову за великолепный материал!

Категории:
Веб-аналитика

Добавить комментарий