追加学習・ファインチューニング・転移学習の違いを徹底解説【AI学習手法】

AIを仕事や研究で使っていると、「追加学習」「ファインチューニング」「転移学習」という言葉が混在していて、どれがどう違うのか迷ってしまうことがあります。
実はこれらは似ているようで、それぞれ明確に異なる概念です。
この記事では3つの手法の違いを整理し、どんな場面でどの手法を選べばいいかを解説します。


スポンサーリンク

そもそも「学習済みモデル」を使い回すのはなぜか

AIモデルをゼロから学習させるには、大量のデータと膨大な計算リソースが必要です。
たとえばGPTのような大規模言語モデル(LLM)を最初から構築するには、数百億円規模のコストがかかるとされています。

そこで注目されているのが、すでに学習済みのモデルを「再利用・改良する」アプローチです。
その代表的な手法が、転移学習・ファインチューニング・追加学習の3つです。


転移学習(Transfer Learning)とは

転移学習(Transfer Learning)とは、あるタスクで学習したモデルの知識を、別のタスクに転用する手法の総称です。
ディープラーニングでは、学習済みモデルの出力層に新たな層を追加し、その追加した層だけを再学習させるやり方が一般的です。
元のモデルの重みは「凍結(フリーズ)」したまま変更しないのが基本的な考え方です。

たとえば、大量の動物画像で学習した画像認識モデルがあるとします。
このモデルは画像から特徴を抽出する能力を持っているため、医療用の画像分類モデルを作る際に「特徴抽出器」として転用できます。
最終的な分類層だけ医療画像向けに学習させれば、ゼロから構築するよりはるかに少ないデータと時間でモデルが完成します。

項目内容
再学習する範囲出力層など、追加した最終層のみ
元モデルの重み凍結(変更しない)
必要なデータ量少量でも可
計算コスト低い

ファインチューニング(Fine-Tuning)とは

ファインチューニング(Fine-Tuning)とは、事前学習済みモデルの重みを初期値として、特定タスクに合わせたデータで再学習を行い、モデル全体またはその一部のパラメータを微調整する手法です。

転移学習が「追加した層だけ学習させる」のに対し、ファインチューニングは元のモデルの一部または全体の層も再学習対象に含めます。
層ごとに調整係数をかけてパラメータの変化量に制限をかけるのが一般的で、入力層に近い層ほど変化を小さく、出力層に近い層ほど大きく変化させる設計が多く使われています。

ファインチューニングは転移学習の一部だと捉えるのが理解しやすく、「転移学習のより深い適応形態」と整理されることもあります。

項目内容
再学習する範囲モデルの一部または全体の層
元モデルの重み一部または全体を更新する
必要なデータ量転移学習より多くが必要
計算コスト転移学習より高い

ファインチューニングの代表的な活用例

ChatGPTやGeminiのような汎用LLMを自社の業務に特化させるケースがわかりやすい例です。
たとえば医療分野のテキストデータでファインチューニングを行うと、モデルは医療用語や文脈をより正確に理解して専門的な回答を生成できるようになります。


追加学習(Incremental Learning / Continual Learning)とは

追加学習(Incremental Learning)とは、モデルを一度学習させて終わりにするのではなく、新しいデータが得られるたびに継続的に学習を続ける手法です。
コンティニュアルラーニング(Continual Learning)とも呼ばれます。

ファインチューニングが「特定タスクへの最適化」を目的とするのに対し、追加学習は「時間の経過に伴う知識のアップデート」に主眼を置いています。

追加学習の最大の課題:破綻的忘却

追加学習で特に問題となるのが、カタストロフィック・フォーゲッティング(catastrophic forgetting)、日本語では「破綻的忘却」と呼ばれる現象です。
新しいデータを学習させると、以前に学んだ内容の精度が急激に低下してしまうことがあります。

この問題を防ぐために、以下の3つのアプローチが研究されています。

  1. 重み固定法:既存の重みを一部または全部固定し、新しいデータに対応する部分のみ学習させる
  2. 重み制約法:新しい学習が既存の重みを過度に変化させないよう、正則化で制限をかける
  3. 重み拡張法:既存のモデルにノードや層を追加して新しいタスクに対応する部分を設ける
項目内容
目的時間の経過に伴う知識の継続的アップデート
課題破綻的忘却(以前の知識を失うリスク)
活用シーンデータが継続的に増える環境(ニュース、商品情報など)
計算コスト手法によって異なる

3つの手法の違いをまとめて比較

比較項目転移学習ファインチューニング追加学習
主な目的別タスクへの知識の転用特定タスクへの精度向上新データの継続的取り込み
元モデルの変更範囲出力層のみ(ほぼ変更なし)一部または全体の層手法によって異なる
必要なデータ量少量でよい中〜多量が理想継続的に入手できる環境
計算コスト低い中〜高い手法によって異なる
主な課題元タスクと差異が大きい場合は効果薄過学習、コスト高破綻的忘却
関係性3手法の上位概念転移学習の一種独立した概念

「追加学習」という言葉の注意点

実際には「追加学習」という言葉は文脈によって意味が異なる場合があります。

ファインチューニングのことを「追加学習」と呼ぶケースも多く、「既存モデルにデータを追加して学習させる行為」全般を指して「追加学習」と言うこともあります。
一方、技術的に厳密には、コンティニュアルラーニング(継続学習)を指す言葉として追加学習を使うのが正確です。

この区別を意識しておくと、記事や論文を読む際に混乱しにくくなります。


どの手法を選べばいいか

データが少なく、元モデルと近いタスクに使いたい場合は転移学習が適しています。
計算コストが低く、少ない学習データでも効果が出やすいのが強みです。

特定の業務や専門分野に特化させたい場合はファインチューニングが適しています。
学習データの質と量さえ確保できれば、出力の口調・形式・精度を強く固定できます。

継続的に新しいデータが入ってくる環境では追加学習が適しています。
ニュースの最新情報、商品カタログの更新など、時間とともに知識が変化していく用途に向いています。

OpenAIの公式ガイドラインでは、LLMを業務に適応させる際の手順として「プロンプト設計→RAG→ファインチューニング」と、まず軽い手段から試すことが推奨されています。


まとめ

転移学習・ファインチューニング・追加学習は、いずれも「学習済みモデルを効率よく活用するための手法」という点では共通しています。
大きな違いは、転移学習が出力層のみを学習させる省コストな手法で、ファインチューニングはその発展形としてより広い範囲の層を再学習させる精度重視の手法、追加学習はデータが増えるたびにモデルをアップデートし続けることに特化した手法です。
用途・データ量・計算リソースの3つを軸に、どの手法を選ぶかを判断すると迷いが少なくなります。


参考情報源:

コメント

タイトルとURLをコピーしました