Ollama

MCP

ローカル環境でMCPサーバーを構築 – OllamaとMCPHostの活用

以前、OllamaとMCPHostを使用してローカル環境にMCP環境を構築しました。今回はこの環境に自作したMCPサーバーを追加してみようと思います。ファイルの準備MCPサーバーとして動作するプログラムを、AIに作成してもらいます。MCPに...
Dify

クラウド不要のAI環境:Difyをローカル構築してAI活用する

AIを業務で活用する際、社内システムや機密データを扱う場合に「クラウドには上げられない」ということがあります。そんなときの解決策の一つが、ローカルで動作するAI環境です。また、Difyを使うことでノーコード・ローコードで直感的に作成でき、A...
MCP

Ollama × MCPで構築するローカルAI環境

AIを使っていると、「社内システムのデータを参照して回答してほしい」「ローカルにある資料を踏まえて分析してほしい」と思うことが少なくありません。ですが、社内データなどを外部AIサービスに送信することは、セキュリティ上難しいです。クラウドにさ...
LlamaIndex

ローカルで試すRAG環境構築

前回、RAGについて簡単に解説しました。今回はローカル環境にRAGを実際に構築してみたいと思います。<本記事のゴール> LlamaIndex+Ollamaでファイルから検索・回答できる環境を作るインストールRAG環境を構築するにあたって、下...
LlamaIndex

RAGを社内で安全に使う方法

RAGの説明や注意点、社内のローカル環境で手軽に利用するための解説です。
Ollama

Ollama APIを業務に活かすメリットまとめ

Ollama APIの業務上のメリットや使用方法の解説です。
Ollama

Ollamaの導入

Ollama(オラマ)は大規模言語モデル(LLM)をローカル環境で実行出来る、ランタイムプラットフォームです。Mac/Windows/Linuxで実行できます。モデルとしては下記の系統のもの等が使用できます。gpt-oss (OpenAI)...