まず相談する
まず相談する

LLM(大規模言語モデル)入門ガイド【前編】― 仕組みからローカルで動かす方法まで

この記事のポイント

  • LLMは「次の言葉を予測する」仕組みで動く大規模AIモデルで、ChatGPTやClaudeなどのサービスの基盤技術
  • ローカルLLMを使えば、プライバシーを守りながら自分のパソコンでAIを動かせる
  • LM Studio(初心者向け)やOllama(開発者向け)を使えば、誰でも手軽にローカルLLMを始められる

はじめに

「ChatGPTやClaudeを使っているけど、そもそもLLMってどんな仕組みなの?」「AIを自分のパソコンで動かしてみたいけど、難しそう」

そんな疑問を持つ方は多いのではないでしょうか。

この記事(前編)では、LLM(大規模言語モデル)の基本的な仕組みから、自分のパソコンで動かす「ローカルLLM」の始め方、そしてすぐに使える便利ツールまでをやさしく解説します。

後編では、AIをカスタマイズする方法(プロンプトエンジニアリング・RAG・ファインチューニング)や、AIの学習の仕組みについて解説しています。あわせてご覧ください。

LLMとは何か

LLMはLarge Language Model(大規模言語モデル)の略で、大量の文章を学習して「人間のように文章を書けるAI」のことです。

仕組みはシンプルで、「次にくる言葉を予測する」ことを超高速に繰り返しています。

入力: 「今日の天気は」
  ↓ AIが次の言葉を予測
出力: 「晴れです」

インターネット上の膨大なテキスト(本、ウェブサイト、論文など)を読んで学習しており、何百億もの単語の関係をデータとして蓄えています。ただし、AIが言葉の意味を「理解」しているわけではなく、パターンから「それっぽい答え」を生成しているという点は押さえておきましょう。

パラメータ(学習した数値)の数が多いほど、一般的に賢くなる傾向があります。

代表的なLLMサービス

サービス名開発元特徴
ChatGPTOpenAI世界で最も有名な対話型AI
ClaudeAnthropic長文の理解と安全性に強い
GeminiGoogleGoogle検索との連携が得意
CopilotMicrosoftOffice連携に強い
Rakuten AI楽天楽天サービスとの連携
PerplexityPerplexity AIWeb検索に特化

これらはすべてLLMを基盤としたサービスです。サービスごとに得意分野が異なるので、目的に応じて使い分けるのがおすすめです。

ローカルLLMという選択肢

普段使っているChatGPTなどはクラウド(インターネット上のサーバー)で動いています。一方、ローカルLLMは自分のパソコンの中で動かすAIです。

クラウドLLM:
  あなたのPC → インターネット → 巨大なサーバー → 回答が届く

ローカルLLM:
  あなたのPCの中だけで完結!

なぜローカルLLMが注目されているのか

ローカルLLMが注目される最大の理由はプライバシーです。個人情報や秘密のデータを外部に送らずにAIを使えます。加えて、自分好みにカスタマイズできる自由度、インターネットがなくても使えるオフライン対応、API料金がかからない無料運用といったメリットもあります。

クラウドLLMとの比較

項目クラウドLLMローカルLLM
必要なものインターネット接続高性能なPC
料金無料〜月額課金基本無料(電気代のみ)
プライバシーデータがサーバーに送られるデータが外に出ない
性能とても高いPCの性能に依存する
カスタマイズほぼできない自由にできる

クラウドLLMは手軽に高性能なAIを使える反面、データがサーバーに送られます。ローカルLLMはデータが外に出ない代わりに、PCの性能に依存します。用途に応じて使い分けるのがベストです。

必要なPCスペックの目安

「ローカルLLMを動かすには高性能なPCが必要」と聞くと尻込みしてしまうかもしれませんが、小さなモデルなら一般的なPCでも動かせます。

モデルサイズ必要なRAMGPU(グラボ)体感
1〜3B8GBなくてもOKスマホレベルの会話
7〜8B16GBあった方がよい日常会話レベル
13〜14B32GB必要(VRAM 8GB〜)かなり賢い
70B以上64GB以上必要(VRAM 24GB〜)ChatGPTに近い性能

BはBillion(10億)の意味です。7Bなら70億個のパラメータを持つモデルということになります。まずは7〜8Bクラスのモデルから試してみるのがおすすめです。

ローカルLLMを動かすためのツール

ローカルLLMを手軽に使うためのツールを3つ紹介します。

Hugging Face ― AIモデルのアプリストア

Hugging Faceは「AIモデルのGitHub」のような存在です。世界中の研究者や企業が作ったAIモデルが公開されていて、誰でもダウンロードして使えます。

数十万以上のAIモデルが公開されているほか、学習用のデータセットも見つかります。一部のモデルはブラウザ上でそのまま試すこともできます。

代表的なオープンモデルとしては、MetaのLlama、GoogleのGemma、Mistral AIのMistral、AlibabaのQwen(日本語にも強い)などがあります。

Hugging Face = AIのアプリストア
  ├── モデル(アプリ本体)
  ├── データセット(学習データ)
  └── Spaces(デモページ)

LM Studio ― 初心者に最もおすすめ

LM Studioはパソコンにインストールするだけで、クリック操作でAIモデルをダウンロードして使えるツールです。プログラミングの知識がなくても使えるのが最大の魅力です。

GUI(画面操作)で使えるのでコマンド入力は不要で、ChatGPTのようなチャット画面で会話できます。Hugging Faceのモデルを検索・ダウンロードする機能も内蔵されており、Windows / Mac / Linuxに対応しています。

使い方のイメージ:
1. LM Studioをインストール
2. 好きなモデルを検索してダウンロード(例: Llama 3 8B)
3. モデルを読み込む
4. チャット画面で会話開始

Ollama ― コマンドラインで使う軽量ツール

Ollamaはコマンドライン(ターミナル)からローカルLLMを使うツールです。シンプルなコマンドだけでモデルのダウンロードと実行ができます。

# モデルをダウンロードして起動(これだけ!)
ollama run llama3

# 会話が始まる
>>> こんにちは!今日は何を手伝いましょうか?

軽量で高速、プログラムからAIを呼び出すのも簡単(API対応)です。Windows / Mac / Linuxに対応しています。

LM StudioとOllamaの使い分け

項目LM StudioOllama
操作方法マウスでクリックコマンドを入力
難易度簡単少し慣れが必要
プログラム連携できるとても得意
おすすめの人初心者プログラミング経験者

まずはLM Studioで試してみて、慣れてきたらOllamaに移行するのがスムーズです。

まとめ

LLMは「次の言葉を予測する」という仕組みで動く大規模AIモデルで、ChatGPTやClaudeといったサービスの基盤技術です。

クラウドで動くAIだけでなく、自分のパソコンで動かす「ローカルLLM」という選択肢もあります。プライバシーを守りたい場合や、自由にカスタマイズしたい場合に向いています。LM StudioやOllamaを使えば、プログラミングの知識がなくても手軽に始められます。

次の一歩として、まずはLM Studioをインストールして、小さなモデルで会話を試してみてはいかがでしょうか。

後編では、「AIを自分の目的に合わせてカスタマイズする方法」を解説します。プロンプトエンジニアリング、RAG、ファインチューニングの使い分けから、AIの学習の仕組みまで、こちらもあわせてお読みください。

関連記事


AI導入でお困りですか?

「ローカルLLMを自社で活用してみたい」「どのモデルやツールが自社に合うかわからない」

そんなご要望がありましたら、AI DARUMAにご相談ください。LLMの選定から導入までをお手伝いします。

〒723-0062 広島県三原市本町 1丁目7-29 2階 コワーキングスペースarica内