この記事のポイント
- LLM(大規模言語モデル)はChatGPTやGeminiの中核にある「言葉を扱うAI」
- 大量のテキストから「次に来る言葉」を予測する仕組みで動いている
- 万能ではなく、得意なことと苦手なことがはっきりしている
はじめに
「ChatGPTってすごいけど、中身はどうなってるの?」
ChatGPT、Gemini、Claudeなど、最近のAIサービスを使ってみて「なんでこんなに自然な文章が書けるんだろう?」と疑問に思ったことはないでしょうか。
これらのAIの中核にあるのがLLM(Large Language Model=大規模言語モデル)という技術です。この記事では、LLMの仕組み・できること・限界を、専門用語を使わずやさしく解説します。
LLMを一言で言うと
LLMとは、大量の文章を読んで「言葉の使い方」を学んだAIです。
もう少し具体的に言うと、インターネット上の膨大なテキスト(書籍、ウェブページ、論文など)を学習し、「この言葉の次にはこの言葉がきやすい」というパターンを身につけたモデルです。
身近な例えで言えば、スマホの予測変換の超高性能版のようなものです。スマホの予測変換は数単語先を予測しますが、LLMは文章全体の文脈を踏まえて、何百文字先まで自然な文章を生成できます。
LLMの仕組み:3つのステップ
LLMがどうやって動いているのか、大まかに3つのステップで説明します。
ステップ1:大量のテキストで学習する(事前学習)
まず、インターネット上の膨大なテキストデータ(数兆文字規模)を読み込みます。この段階では「こういう文脈のときは、次にこういう言葉が来やすい」というパターンを統計的に学んでいきます。
この学習に使われるデータ量と計算資源が「大規模」と呼ばれる理由です。数百〜数千台規模のGPU(高性能な計算チップ)を何週間も動かして学習させます。
ステップ2:人間のフィードバックで調整する(RLHF)
事前学習しただけのLLMは、文章を続ける能力は高いものの、人間の指示に沿った振る舞いには特化していません。
そこで、人間が「この回答は良い」「この回答は悪い」とフィードバックを与えて、対話向きに調整します。この工程をRLHF(人間のフィードバックによる強化学習)と呼びます。ChatGPTが「ただ文章を続けるAI」ではなく「質問に答えてくれるアシスタント」になっているのは、このステップのおかげです。
ステップ3:ユーザーの入力に応答する(推論)
調整が終わったLLMが、私たちが日常的に使うChatGPTやGeminiとして公開されます。ユーザーが文章を入力すると、LLMは学習した知識をもとに「最も自然で適切な続き」を一文字ずつ生成していきます。
【学習フェーズ】
大量のテキスト → LLMが言葉のパターンを学習 → 人間のフィードバックで調整
【利用フェーズ】
ユーザーの質問 → LLMが文脈を理解 → 回答を一文字ずつ生成
LLMが得意なこと・苦手なこと
得意なこと
| できること | 具体例 |
|---|---|
| 文章の生成・要約 | メール下書き、議事録の要約、ブログ記事の作成 |
| 質問への回答 | 一般的な知識に関するQ&A、用語の解説 |
| 翻訳 | 日本語↔英語の翻訳、ニュアンスを保った言い換え |
| コードの生成 | プログラムの作成、バグの修正案 |
| アイデア出し | ブレスト、キャッチコピー案、企画の壁打ち |
苦手なこと
| 苦手なこと | なぜ苦手か |
|---|---|
| 最新情報 | 学習データの時点までの知識しか持っていない(一部サービスは検索連携で補っている) |
| 正確な計算 | 言葉のパターンで「それっぽい答え」を出すだけで、計算しているわけではない |
| 事実の保証 | 自信たっぷりに間違った情報を答えることがある(ハルシネーション) |
| 社内データの活用 | そのままでは学習していない情報は知らない。活用するにはRAGなど別途連携の仕組みが必要 |
特に注意が必要なのが「ハルシネーション」です。LLMは「もっともらしい文章を生成する」のが得意なので、知らないことでもそれらしく答えてしまいます。重要な判断に使う場合は、必ず出典を確認する習慣が大切です。
主なLLMサービスの違い
「LLM」は技術の名前で、それを使ったサービスが「ChatGPT」や「Gemini」です。主なサービスを整理します。
| サービス名 | 開発元 | 中身のLLM | 特徴 |
|---|---|---|---|
| ChatGPT | OpenAI | GPTシリーズ | 最も知名度が高い。プラグインやGPTsで拡張可能 |
| Gemini | Geminiシリーズ | Google検索やGmailとの連携が強み | |
| Claude | Anthropic | Claudeシリーズ | 長文の読み込みが得意。安全性を重視した設計 |
| Copilot | Microsoft | GPTベース | WordやExcelなどOffice製品と統合 |
どのサービスも中身はLLMですが、学習データ・調整方法・得意分野がそれぞれ異なります。「どれが一番」というよりも、用途に合わせて使い分けるのがおすすめです。
「大規模」って何が大規模なの?
LLMの「大規模」には2つの意味があります。
学習データの規模:
- インターネット上の書籍・ウェブページ・論文など、数兆文字規模のテキストで学習
- 日本語だけでなく英語や中国語など多言語のデータを含む
モデルのパラメータ数:
- パラメータとは、LLMが学習した「知識のつまみ(調整値)」のようなもの
- GPT-4は数千億〜1兆以上のパラメータを持つとされる
- パラメータが多いほど複雑な文脈を理解できるが、動かすのにも大きな計算資源が必要
ちなみに「パラメータ数が多い=賢い」とは限りません。学習データの質や調整方法も同じくらい重要です。最近は少ないパラメータでも高い性能を出す「効率的な」モデルの研究も進んでいます。
LLMとAIの関係
「AI」「機械学習」「LLM」…似た言葉がたくさんあって混乱しますよね。関係を整理すると次のようになります。
AI(人工知能)
└── 機械学習(データから学ぶAI)
└── 深層学習(ニューラルネットワークを使う機械学習)
└── LLM(言葉に特化した深層学習モデル)
つまりLLMは「AIの中の、言葉を扱うことに特化した分野」です。画像を扱うAI(画像認識・画像生成)や音声を扱うAI(音声認識・音声合成)とは別の専門分野ですが、最近はこれらを統合した「マルチモーダルAI」も増えてきています。
まとめ
| 項目 | 内容 |
|---|---|
| LLMとは | 大量のテキストから言葉の使い方を学んだAI |
| 仕組み | 「次に来る言葉」を予測して文章を生成する |
| 得意なこと | 文章生成、要約、翻訳、コード作成、アイデア出し |
| 苦手なこと | 最新情報、正確な計算、事実の保証、社内データ活用 |
| 主なサービス | ChatGPT、Gemini、Claude、Copilotなど |
- LLMは「超高性能な予測変換」のようなもので、言葉のパターンを学んで文章を生成する
- 万能ではなく、ハルシネーション(もっともらしいウソ)に注意が必要
- サービスごとに得意分野が異なるので、用途に合わせた使い分けがおすすめ
関連記事
- Hugging Face入門:プログラミング不要でAIを試せる無料プラットフォーム
- AIにできること・できないことを正しく理解しよう
- マルチモーダルAI入門:テキストだけじゃない、画像・音声・動画をまとめて扱う時代
AI導入でお困りですか?
「うちの業務にAIを使ってみたいけど、何から始めればいいか分からない」――そんなご相談をよくいただきます。AI DARUMAでは、LLMの基本的な使い方から業務への活用方法まで、やさしくサポートいたします。
〒723-0062 広島県三原市本町 1丁目7-29 2階 コワーキングスペースarica内