Ollama × MCPで構築するローカルAI環境

MCP

AIを使っていると、「社内システムのデータを参照して回答してほしい」「ローカルにある資料を踏まえて分析してほしい」と思うことが少なくありません。

ですが、社内データなどを外部AIサービスに送信することは、セキュリティ上難しいです。
クラウドにさえ持っていけないことも結構あります。

そんな要求に応えるのが MCP (Modex Context Protocol) です。
MCPは、AIクライアントと外部ツール・データソースをつなぐための共通プロトコルで、
ローカル環境でも安全にAI連携を構築できる仕組みを提供します。

今回はOllamaとMCPを使って、AIからローカルデータを参照できる環境を、完全ローカルで構築してみようと思います。

Ollamaのインストール

最初にOllamaのインストールですが、こちらの記事を参考にしてもらえればと思います。

導入は簡単で下記の手順になります。

  1. 公式サイト(https://ollama.com/)からインストーラをダウンロード
  2. インストール
  3. モデルのダウンロード

Go言語のインストール

今回、MCPを構築するためにMCPHost(https://github.com/mark3labs/mcphost)というライブラリを使用するのですが、こちらがGo言語前提のためインストールを行います。

公式サイトのダウンロードページ(https://go.dev/doc/install)からDownloadをクリックし、

環境にあったインストーラをダウンロードします。

ダウンロードしたインストーラを実行し、手順に沿ってインストールします。

MCPHostのインストール

続いてMCPHost(https://github.com/mark3labs/mcphost)のインストールです。
こちらは、先程インストールしたGoコマンドを使ってインストールするようになります。

ターミナルで下記のインストールコマンドを実行します。

ターミナル
go install github.com/mark3labs/mcphost@latest

json設定

MCPHostの設定ファイルを作成します。
モデルやAIPキー、各MCPサーバーの設定などを行うためのファイルです。

プロジェクトディレクトリに「.mcphost.json」の名前でファイルを作成します。
※このファイル名はデフォルトで読み取ってくれるファイル名です。別のファイル名にすることも可能です。

今回はローカルファイルを参照するためのMCPサーバーの設定を行ってみます。
詳しい設定方法はMCPHostのGithub(https://github.com/mark3labs/mcphost)を参照してみてください。

.mcphost.json
{
 "mcpServers": {
   "file-system": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-filesystem",
        "{参照ディレクトリのパス}"
      ]
    }
 }
}

Windows環境の場合、パスのセパレータは「 \ 」ではなく「 \\ 」と二重にする必要があるので注意が必要です。

MCPHostの起動

.mcphost.json」で設定したパスに下記のファイルを配置して、読み取れるか試してみます。

通信量.txt
	通信量	利用時間
1日	212MB	0:16
2日	3,482MB	1:46
3日	2,192MB	3:01
4日	1,663MB	1:25
5日	3,186MB	0:54
6日	1,986MB	1:59
7日	3,283MB	1:55
8日	904MB	3:18
9日	1,910MB	1:55
10日	1,583MB	1:47
11日	1,127MB	0:00
12日	0MB	0:00
13日	11MB	0:00
14日	1,027MB	1:49
15日	593MB	1:55
16日	2,290MB	1:50
17日	1,807MB	1:01
18日	3,248MB	0:48
19日	713MB	1:55
20日	1,996MB	1:57
21日	789MB	1:50
22日	2,017MB	1:55
23日	5,681MB	0:30
24日	2,798MB	1:42

ターミナルからmcphostコマンドで実行します。
※mcphostコマンドが見つからない場合は、/go/binにパスが通っているか確認してみてください。

設定ファイルにモデルは指定しなかったので、引数で設定します。

ターミナル
mcphost -m ollama:gpt-oss:20b

起動したので「通信量には何日分のデータがありますか」とプロンプトを入力してみます。

配置しておいた「通信量.txt」を無事読み取ってくれました。

まとめ

AIを社内で活用する際、最大の課題となるのは「セキュリティとデータの扱い」です。
外部APIを使わずにAIを動かすことで、情報漏えいリスクを避けながら、社内データ活用の可能性を検証できるのがローカルLLM+MCP構成の強みです。

MCPを使えば、AIが社内ファイル・ローカルDB・業務ツールなどを「安全な共通インターフェース」を通じて参照できるようになります。

今回はファイルシステムでしたが、他のデータソースを追加しすることも可能です。
適用範囲を増やしながら、段階的にAIによる社内データ活用を広げていけます。

コメント

タイトルとURLをコピーしました