今さら聞けない!従来のAIと生成AIで何が変わったのか。AI業界で起こった技術革新を徹底解説。
2022年11月30日、世間を大きく賑やかした発表がありました。生成AI(人工知能)ブームのきっかけとなった対話型AI「ChatGPT」のプロトタイプが一般リリースされた日です。
公開からわずか5日でユーザー数が100万人を突破し、約2ヶ月で1億人を突破するなど、まさにAI業界に大きなムーブメントを巻き起こしました。
これにより、Googleが開発・提供する生成AI「Gemini(ジェミニ・ジェミナイ)」やMicrosoftが提供する「Copilot(コパイロット)」など様々な生成AIがリリースされました。
この記事では、AI業界を大きく変えた「生成AI」と「従来のAI」の違いを初心者にもわかりやすく解説します。
従来のAIと生成AIの違い
一言でいうと、従来のAIは「選ぶ・分ける・当てる」のが得意な「プロの鑑定士」、生成AIは「創る・書く・描く」のが得意な「クリエイター」のような存在です。
根本的な役割の違い
これまでのAIと生成AIでは、学習のゴール(目的)が全く異なります。
従来のAI
大量のデータを学習し、その中から「正解」を見つけ出したり、分類したりすることに特化しています。
犬と猫の画像を見分ける、迷惑メールを判定する、来月の売上を予測するといった単純な作業の代行が得意で、すでにあるデータに基づいた「Yes/No」や「数値」、「分類結果」をアウトプットしてくれます。
生成AI
データの「特徴」や「パターン」そのものを学習し、それをもとにこの世に存在しなかった新しいコンテンツを作り出します。
「犬が宇宙でピアノを弾いている画像」を描く、長文の要約やメールの代筆、プログラミングコードの作成が得意で、文章、画像、音声、動画など、人間が作るような「表現物」をアウトプットしてくれます。
仕組みの違いを深掘り
なぜ生成AIが「創る」ことができるのかを表にまとめてみました。
| 項目 | 従来のAI(識別系) | 生成AI |
| 学習の仕組み | データ同士の「境界線」を学ぶ | データの「分布(形)」を学ぶ |
| 処理のイメージ | 「これはAか?Bか?」を判断 | 「次の文字(ピクセル)は何がくる確率が高いか?」を計算 |
| 指示の方法 | プログラミングや専用の命令が必要 | プロンプト(普通の言葉)でOK |
| 代表例 | 顔認証、レコメンド(おすすめ)、自動翻訳 | ChatGPT、Midjourney、Stable Diffusion |
生成AIが「もっともらしい」理由
例えばChatGPTは、膨大な文章を読み込み、「『吾輩は猫である。名前は……』の次に続く文字は『まだない』である確率が非常に高い」ということを統計的に理解しています。これを何千億回と繰り返すことで、人間のような自然な文章を生成しているのです。
なぜ今、生成AIが騒がれているのか?
従来のAIと比べて、私たちの生活を劇的に変えるポイントが3つあります。
- プログラミングができなくても、日本語で話しかけるだけで高度な作業をやってくれます。
- これまでのAIは分析だけでしたが、生成AIはアイデア出しや下書きといった「創造のパートナー」になります。
- 1つのAIが、翻訳も、人生相談も、コードのデバッグも、小説の執筆もこなせます。
生成AIを使うときの注意点
生成AIは「確率的に正しいと思われるもの」を出力しているだけなので、「もっともらしい嘘(ハルシネーション)」をつくことがあります。
- データの裏付けがある「正確性」が武器。
- 創造性が高い反面、「内容は必ず人間がチェックする」必要があります。
大規模言語モデル(LLM)とは
ChatGPTなどの生成AIには「大規模言語モデル(LLM)」と呼ばれる技術が組み込まれています。
「大規模」のすごさ
「大規模」と言われる理由は、学習したデータの量と、AIの神経細胞(パラメーター)の数がとてつもなく多いからです。
イメージは、 従来のAIが「特定の教科(数学だけ、歴史だけ)を極めた参考書」だとすれば、LLMは「世界中の本、ネット記事、プログラムコードをすべて飲み込んだ動く巨大図書館」です。
LLMの特徴は、あらゆる分野の知識が繋がっているため、専門外のことでも「もっともらしい」答えを出せます。
「予測」のすごさ
LLMの仕組みは、実は意外とシンプルです。それは「次にくる文字を確率で当てる」というゲームを繰り返しているだけなのです。
例えば、「吾輩は猫である。名前は……」と言われたら、AIは膨大な知識から「次は『まだない』がくる確率が99%だ!」と計算して出力します。
単なる単語の暗記ではなく、文脈(前の文章の流れ)を読んで、「この流れなら、次はこう言うのが自然だ」と判断する力がズバ抜けています。
「学習」のすごさ
これが一番の驚きです。LLMはある一定のサイズ(規模)を超えると、教えられていないはずの能力が突然目覚めることがあります。
コンテキスト学習といって、「AをBに変換して」と1回例を見せるだけで、その場でルールを理解して実行してしまいます。
また、 翻訳やプログラミング、詩を書く、といった多様なタスクを、それぞれ専用に訓練しなくても「言葉の繋がり」を深く理解した結果としてこなせるようになります。
深層学習(ディープラーニング)とは
ニューラルネットワーク
ディープラーニングのベースにあるのは「ニューラルネットワーク」という仕組みです。私たちの脳にある「神経細胞(ニューロン)」が網の目のようにつながり、情報を伝達する様子をモデルにしています。
入力層
目や耳から入る情報(文字や画像データ)。
隠れ層(中間層)
ここが「深層(ディープ)」と呼ばれる部分です。何層にも重なった層が、情報を複雑に分析します。
出力層
最終的な答え(「次は『猫』という言葉が来る!」という予測)。
「深い(ディープ)」ことのメリット
なぜ層を「深く」するのでしょうか? それは、情報の「特徴」を段階的に理解するためです。
例えば、人間の顔を認識する場合、浅い層では「線」や「点」などの単純な形を見つけ、中間の層では、 線を組み合わせて「目」や「鼻」のパーツを認識し、深い層では、パーツの配置から「これはAさんの顔だ」と複雑な特徴を捉えます。
LLMの場合も同じで、深い層があるからこそ、単なる単語の羅列ではなく「文章のニュアンス」や「文脈(ストーリー)」といった高度な概念を理解できるようになります。
どうやって賢くなるのか
AIはどうやって「正解」を学ぶのでしょうか。これには2つのステップがあります。
予測して間違える(順伝播)
最初は何も知らない赤ちゃん状態です。「空は」という入力に対し、デタラメに「リンゴ」と予測したりします。
答え合わせをして修正する(誤差逆伝播法)
正解が「青い」だと知ると、AIは「あ、間違えた!」と気づきます。そして、「どの神経のつながりが原因で間違えたか」を逆方向にたどって、つながりの強さ(重み)を微調整します。
ギターの練習で、変な音が鳴ったときに「左手の指の角度が悪かったかな?」と少しずつ調整して、綺麗な音が出るようにしていく作業に似ています。
LLM特有の魔法
今のLLM(Transformerという技術)が劇的に賢くなったのは、ディープラーニングの中に「アテンション(注意)」という仕組みを取り入れたからです。
長い文章を読むとき、私たちはすべての単語を均等に読みませんよね?
「彼は昨日、公園で犬を連れて散歩していたが、それはとても元気だった。」
この文の「それ」が何を指すか(犬なのか、彼なのか、公園なのか)、AIは文中の重要なキーワードに「注目(アテンション)」して判断します。これにより、長い文でも文脈を壊さずに理解できるようになったのです。
まとめ
2022年11月のChatGPT登場以来、AIの世界は「選ぶ・分ける」時代から「新しく創り出す」時代へと劇的に進化しました。
従来のAIと生成AIの違い
| 項目 | 従来のAI(識別系) | 生成AI(創造系) |
| 役割 | プロの鑑定士 | 表現力豊かなクリエイター |
| 得意分野 | 分類・予測(犬か猫か、売上予測) | 制作・執筆(画像生成、文章作成) |
| 出力物 | 正解・数値・分類結果 | 文章、画像、コードなどのコンテンツ |
なぜ「人間らしい」表現ができるのか?
生成AI(特にLLM:大規模言語モデル)は、膨大なデータから「統計的な確率」を計算しています。
「次にくる文字やピクセルは何か?」を予測するゲームを何千億回と繰り返している仕組み。
文章の中の重要なキーワードに「注目」することで、長い文でも文脈(ストーリー)を壊さずに理解できるアテンション(注意)機能。
深層学習(ディープラーニング)の魔法
人間の脳の神経回路を模したニューラルネットワークがベースになっています。
情報が深くなるほど、「点や線」から「顔のパーツ」、さらに「特定の人物」へと、複雑な特徴を段階的に理解する。
予測が外れた際に、原因となった「神経のつながり」を逆方向にたどって微調整(誤差逆伝播法)することで、ギターの練習のように徐々に賢くなる。
利用上の注意点
生成AIはあくまで「確率」で動いているため、事実と異なる内容を自信満々に出力するハルシネーション(もっともらしい嘘)が起こり得ます。
データの正確性が武器の「従来型AI」とは異なり、生成AIのアウトプットは必ず人間が内容を確認する必要がある人間のチェックが必須です。
「生成AIは、私たちの指示(プロンプト)一つで動く、万能な創造のパートナーである」 というのが、現代のAIの新しい常識です。

