MCP Ollama × MCPで構築するローカルAI環境 AIを使っていると、「社内システムのデータを参照して回答してほしい」「ローカルにある資料を踏まえて分析してほしい」と思うことが少なくありません。ですが、社内データなどを外部AIサービスに送信することは、セキュリティ上難しいです。クラウドにさ... 2025.10.11 MCPOllama
LlamaIndex ローカルで試すRAG環境構築 前回、RAGについて簡単に解説しました。今回はローカル環境にRAGを実際に構築してみたいと思います。<本記事のゴール> LlamaIndex+Ollamaでファイルから検索・回答できる環境を作るインストールRAG環境を構築するにあたって、下... 2025.09.13 LlamaIndexOllamaRAG
Ollama Ollamaの導入 Ollama(オラマ)は大規模言語モデル(LLM)をローカル環境で実行出来る、ランタイムプラットフォームです。Mac/Windows/Linuxで実行できます。モデルとしては下記の系統のもの等が使用できます。gpt-oss (OpenAI)... 2025.08.29 Ollama