Ollama

MCP

Ollama × MCPで構築するローカルAI環境

AIを使っていると、「社内システムのデータを参照して回答してほしい」「ローカルにある資料を踏まえて分析してほしい」と思うことが少なくありません。ですが、社内データなどを外部AIサービスに送信することは、セキュリティ上難しいです。クラウドにさ...
LlamaIndex

ローカルで試すRAG環境構築

前回、RAGについて簡単に解説しました。今回はローカル環境にRAGを実際に構築してみたいと思います。<本記事のゴール> LlamaIndex+Ollamaでファイルから検索・回答できる環境を作るインストールRAG環境を構築するにあたって、下...
LlamaIndex

RAGを社内で安全に使う方法

RAGの説明や注意点、社内のローカル環境で手軽に利用するための解説です。
Ollama

Ollama APIを業務に活かすメリットまとめ

Ollama APIの業務上のメリットや使用方法の解説です。
Ollama

Ollamaの導入

Ollama(オラマ)は大規模言語モデル(LLM)をローカル環境で実行出来る、ランタイムプラットフォームです。Mac/Windows/Linuxで実行できます。モデルとしては下記の系統のもの等が使用できます。gpt-oss (OpenAI)...