Дополнение к оригинальной статье Якова Осипенкова Yandex Metrika MCP Server.
Большое спасибо Якову за великолепную статью! Сопоставимых по удобству и легкости для воспроизведения материалов очень мало. Считаю Якова миссионером в мире веб-аналитики.
В статье Якова упоминалось: «что существуют локальные модели, которые полностью работают офлайн, прямо на вашем компьютере и не требуют постоянного подключения к Интернету. Можно скачать такую модель на компьютер и запускать ее через совместимый фреймворк (например, Ollama, Hugging Face, Local LLM).»
Здесь я хотел бы добавить информацию о том, как можно подключить уже обученную нейронную сеть, для того чтобы попробовать функционал, не прибегая к платным версиям. Я делал настройки используя рекомендации ChatGPT и DeepSeek. Но есть нюансы, на которые пришлось потратить время, чтобы всё заработало.
Все, что описано ниже сделано для устройств, работающих на Windows, так как я делал настройку именно на базе этой операционной системы. Сразу начну с последнего этапа – подключения модели. Думаю, что все предыдущие шаги вы успешно выполнили, используя подробные инструкции из статьи Якова (скачали и настроили все необходимые компоненты: LobeChat, node, Git, yandex_metrika_mcp).
У LobeChat есть рекомендованный локальный провайдер, который позволяет использовать локальные модели – Ollama. И нам нужно установить Ollama на наш компьютер. Для этого скачайте установочный файл с официального сайта и далее установите программу следуя инструкции (просто кликая Next/Далее 😊)
Далее откройте PowerShell и введите команду ollama –version, для проверки:
Далее нам нужно выбрать и скачать модель, которая поддерживает так называемый function calling и в тоже время будет посильна вашему железу.
Я пробовал три модели:
- qwen2.5:7b-instruct
- llama3.1:latest
- llama3.1:8b
Чтобы скачать модель введите в PowerShell следующую команду:
ollama pull <название модели>
Например:
ollama pull llama3.1:8b
Скачивание любой модели потребует времени, так как это достаточно увесистые файлы.
Переходим к подключению локальной модели. Откройте LobeChat и перейдите в Settings. Чтобы перейти в Settings нужно в самом чате в нижнем меню нажать на крайне левую иконку, которая может иметь разный вид в зависимости от используемой модели:
И далее нажать на иконку гайки напротив Ollama:
! Несколько раз сталкивался с проблемой, что при этом раздел Settings не открывался. Справиться с этим мне удавалось только перезагрузкой ноутбука.
В открывшемся окне кликните на AI Service Provider, далее на Ollama:
Переходим к настройкам подключения модели:
- 1 шаг – нажимаем кнопку Fetch models, чтобы подтянуть скачанную модель;
- 2 шаг – вводим ip адрес для соединения с моделью. Для этой модели;
- 3 шаг – в выпадающие списке выбираем нашу модель;
- 4 шаг – кликаем по кнопке Check для проверки, что связь с моделью установлена.
Перед использование не забудьте активировать модель, включив бегунок в Model list:
И теперь, очень важный шаг, так как без него не связь с yandex_metrika_mcp не будет работать. Нам нужно в настройках модели включить галочку Support for Tool usage. Для этого открываем режим конфигурации модели:
Откроется следующее меню, где напротив Support for Tool usage нужно поставить галочку:
Только после этого ваша модель сможет взаимодействовать с yandex_metrika_mcp и это будет видно по соответствующей иконке около модели:
И вверху чата:
Далее можно начинать пользоваться. По моему опыту, модель думает достаточно долго, так как мощность моего железа не сопоставима с тем, что используется при подключении к online моделям (DeepSeek, ChatGPT и т.д.).
Проверить работу, можно, как было описано в статье Якова, например задать вопрос: Какие функции Яндекс Метрики тебе доступны? Модель серьёзно задумается, потом даст ответ:
Далее можно уже задавать вопросы по конкретному аккаунту метрики, указав номер счетчика (если у вас, конечно, есть нему доступ).
Ещё раз спасибо Якову за великолепный материал!










