AIの記事でよく出る微分、ここだけ読めれば怖くない
目次
前回の確率と統計までで、LLMの学習ログやモデルカードの数字はだいぶ読めるようになる。 ただ、実際のモデルが「損失を下げる方向にどう動くのか」を追いかけようとすると、今度は微分の記号が出てくる。 、、 あたりで閉じてしまう人も多いと思う。
この記事もシリーズ前3本と同じで、解けるようになる必要はなく、読めるようになることを目標にする。
微分の厳密な計算ルールは出さない。 、、、 の4つが「何をやっているか」で読めれば、AI記事の微分まわりはかなり追える。
勾配降下と逆伝播は連鎖律・勾配がそのまま主役になる話なので、次の記事でまとめて扱う。
微分は「傾き」を取り出す計算
微分のコアはこれだけだ。 「ある関数のある点で、入力を少し動かしたら出力がどれだけ動くか」
中学・高校で出てきた 変化の割合 を、動かす幅を限りなく小さくしたもの、と言ってもいい。
グラフでいうと、曲線上のある点を通る 接線 の傾きが、その点での微分値になる。
- 上向きに急な点 → 微分値は大きなプラス
- 平らな点(頂点など) → 微分値は0
- 下向きに急な点 → 微分値は大きなマイナス
この「点ごとの傾き」は、高校数学では2段階で整理されている。
まず、ある特定の点 での瞬間の傾きの値を 微分係数 と呼び、 と書く。
これを だけでなくどの に対しても返せるように関数の形にまとめ直したものが 導関数 で、記号は や が使われる。
「微分する」とは、元の関数 からこの導関数 を作り出す操作のことだ。
AIでは損失 をパラメータ で微分した を計算して、「重みをちょっと動かしたら損失がどれだけ動くか」を見ている。 「損失が減る方向に重みを動かす」ができるのは、この傾きが測れるからだ。
d/dx と f’(x) の読み方
微分の書き方は、主に2種類の記法が使われる。
ライプニッツ記法: またはラグランジュ記法: または
どちらも「 を で微分する」という同じ意味だ。使い分けは書きやすさや見やすさの問題で、意味の違いはない。
- は分数のような見た目だが、「」と「」を別々に割り算しているわけではない。「 を微小に動かしたときの の微小な変化」の気持ちを記号で表している。
- は短くて書きやすく、式の途中で何度も微分を使うときに便利。
- 「 で微分する」の「で」は、「どの変数に対して変化率を測るか」を指している。
AIの論文や解説では、どの変数で微分しているかを明示したい場面が多いので、ライプニッツ記法( のような形)のほうがよく見る。
分数じゃないのに分数っぽくバラすテクが許される理由
受験や大学の微積分を進めていくと、 を とバラして扱うテクニック(置換積分や変数分離形の微分方程式)に出会う。 「1つの記号扱いのはずなのに、分数として扱っていいのか?」と引っかかった人向けに、短答だけ置いておく。
もともとライプニッツが17世紀にこの記号を作ったときは、 や は「無限に小さい量」として本当に分数だった。 現代の厳密な微積分では は1つの記号扱いだが、バラす操作は連鎖律や置換積分の定理のショートカット記法として裏で正当化されている。 厳密な話は大学の微分形式や解析学で嫌でもやるので、高校〜入試の間は「結果が合う便利な道具」と割り切って足りる。
具体例で感覚を掴む
や 、 のように、 の形をした関数を べき関数 と呼ぶ。
の部分を 指数 といい、「 を何回掛け合わせるか」を表している。 はプラスの整数だけでなく、マイナス()や分数()もOKで、全部べき関数の仲間だ。
このべき関数の微分から入ると感覚が掴みやすい。
- を微分すると
- を微分すると
- を微分すると
並べて見ると規則が見える。
「肩に乗っていた指数が前に降りてきて、指数が1つ減る」というルールだ。 手で計算するときの主役になる公式で、AI 記事ではこの形の微分が一番よく出る。
| 元の関数 | 導関数 |
|---|---|
| (定数) |
公式 は、 がマイナスでも分数でもそのまま当てはまる。 肩の指数を前に降ろして、指数を1減らす、という手順をそのまま適用するだけだ。
定数は微分すると0になる。 「変化しない値の傾き」は0だ、と読める。
よく使う微分の形
AI記事で出てくる関数の微分は、この表で足りる。
表には指数関数 が初登場する。これはべき関数 とちょうど逆の構造で、底 が定数、指数 が変数の関数だ。
名前は似ているが、 がどこにいるかで別の仲間になる。
- べき関数 : 底が動く変数、指数は固定
- 指数関数 : 底は固定、指数が動く変数
は指数関数の の場合で、あとで出てくる 対数関数 は指数関数の逆関数(「 を何乗したら になるか」を返す関数)になる。
| 元の関数 | 導関数 |
|---|---|
| (べき関数) | |
| (指数関数の代表) | (そのまま) |
| (自然対数) | |
| 定数 |
全部覚える必要はなく、「 は微分しても 」「 の微分は 」の2つだけでも、AIの式を読むときの助けになる。
ここで2つとも底が や自然対数で出てくるのがポイントで、次の節で正体を掘る。
e の正体
前回までで「 は約2.71828…の特別な定数で、微積の話で出てくる」と先送りしてきた。ここで回収する。
出自は複利の極限
が歴史上最初に姿を現したのは、複利計算の話だ。 「元本1を年利100%で借りたとき、利息を年 回に分けて複利で付けていくと、1年後にいくらまで増えるか」を考える。
- 年1回複利:
- 半年ごと複利:
- 四半期ごと複利:
- 月ごと複利:
- もっと細かく…
を大きくするほど増えるが、無限に増え続けるわけではなく、ある定数に収束する。
これが の出自で、17世紀に Jacob Bernoulli が複利の限界を考えていて見つけた定数だ。
結果として、微分でも特別な性質を持つ
この 、微分の世界でも特別な顔をする。
普通の指数関数 を微分すると、 に余計な係数がくっついてくる。
- → に約 を掛けたもの
- → そのまま
- → に約 を掛けたもの
だけ係数1が出て、微分を何回繰り返しても のままで形が崩れない。 複利から出てきた定数が微分でも綺麗に働くのは偶然ではなく、裏側に「その時点の値に比例して増える(減る)」という共通の構造が効いている。 深追いすると脱線するが、「複利限界の定数が微分でも自然に顔を出す」と受け取っておけば足りる。
同じ理由で、底が の対数(自然対数)の微分も綺麗になる。
底が10や2だと、この右辺に余計な係数が付いてくる。底が のときだけ、素の で収まる。
なぜAIでは自然対数・e を使うのか
前のシリーズ記事を思い出すと、softmax の 、交差エントロピーの 、対数尤度の など、AI の式は と だらけだった。 理由のかなりは「微分が綺麗だから」に集約される。
学習はパラメータを微分方向に更新していく作業で、その微分が綺麗な形になるほど、数式・コード・実装がシンプルになる。 逆伝播(次回の主役)では連鎖律で微分を掛け算していくので、1ステップの微分に係数がぶら下がっていないほうが圧倒的に扱いやすい。
AI系の記事で と書いてあったら「底は 」と読み替えてよく、 と を区別しない流派も多い。 このへんの慣習は数学の教科書より工学寄り、と思っておけばいい。
連鎖律は「外×内」
AIで一番効いてくる微分のルールが 連鎖律 だ。
日本の高校数学では「合成関数の微分」と呼ばれることが多く、「連鎖律」は大学以降やAI・機械学習の文脈でよく使われる呼び方になる。指しているものは同じだ。
関数の中に関数がある 合成関数 を微分するルールで、 と置くと式はこう書ける。
やっていることを言葉にすると、
- 外の関数 を普通に微分する
- 内の関数 を普通に微分する
- 2つを掛け合わせる
の3ステップだけだ。
具体例で を微分する。
- 外: → 微分して
- 内: → 微分して
- 掛ける:
イメージとしては歯車の回転比だ。 入力 を少し動かすと中間の が動く。 が動くと出力 が動く。 の連動率と の連動率を掛け合わせれば、 全体の連動率が出てくる、という発想になる。
なぜ掛け算でOKなのか
「なんで足し算じゃなくて掛け算なのか」と引っかかる人もいる。 少しだけ数式寄りに書くと、こうなる。
を微小量 動かしたとき、 はだいたい 動く。 その の微小変化 に対して、 はだいたい 動く。 2つをつなぐと、
両辺を で割って の極限を取れば、 になる。 厳密には の場合の扱いなど細かい場合分けが要るが、直感としては「変化量を掛け算で繋ぐ」で正しい。 ライプニッツ記法で書かれていると見た目通り分数のキャンセルに見えるのも、この掛け算構造が裏にあるからだ。
AI での連鎖律の立ち位置
ニューラルネットは層を何層も重ねる構造で、1つの入力から最終損失までは深い合成関数になっている。
flowchart LR
X[入力 x] --> L1[層1 W1, b1]
L1 --> L2[層2 W2, b2]
L2 --> L3[層3 W3, b3]
L3 --> L[損失 L]
損失 を、例えば層1の重み で微分したいときに、連鎖律を何回か繰り返して使うことで、層ごとに微分を分解して掛け算していくことができる。 これが逆伝播(次回の主役)の骨格そのものになる。 「連鎖律をひたすら適用するだけで、深いネットの全重みに対する勾配が出せる」というのが、現代のニューラルネットが動いている理由の大きな部分を占めている。
偏微分 ∂f/∂x
ここまでは入力変数が1つの関数の話だった。 AIの学習では、損失関数がニューラルネットの重み(パラメータ)何百万〜何兆個に依存する多変数関数になる。 そこで、変数が複数ある関数に微分を拡張する必要が出てくる。
のような2変数の関数で考えてみる。
このとき、「 だけを動かしたら はどう動くか」「 だけを動かしたら はどう動くか」を別々に測りたい。
これが 偏微分 だ。
- を固定して だけで微分 →
- を固定して だけで微分 →
は「パーシャル」「ラウンドディー」「デル」などと読まれる。 ではなく という別の記号を使うのは、「他の変数を固定した上で1つの変数だけ動かした微分」であることを明示するためだ。 変数が1つだけのときの とは意味が違う、という自己主張の記号と思えばよい。
具体例
で実際にやってみる。
- ( は から見ると定数なので微分して0)
- (同様に が落ちる)
普通の微分に「他の変数を定数扱いする」というひと手間を足しただけで、計算のルール自体は変わらない。
幾何的なイメージ
は、3次元空間では「お椀」のような立体の表面になる。 を動かすと表面の高さ が変わる、という見方ができる。
は、このお椀の表面を「 が固定された面」でスパッと切ったときに現れる断面の傾きだと思うと分かりやすい。 を固定すると2次元の曲線だけが残るので、その点での曲線の傾きを測っている。 は切る向きを90度変えただけで、発想は同じだ。
変数が3つ以上になっても、「1つの軸方向だけに動かしたときの断面の傾き」を取り出している、というイメージは変わらない。
勾配 ∇f は偏微分のベクトル
多変数関数の偏微分を全部並べてベクトルにしたのが 勾配 だ。記号は (ナブラ)を使う。
の勾配は、
これはただのベクトルだ。2本目のベクトル記事で扱った「向きと長さを持つ数字の並び」がそのまま戻ってきている。
2つの意味: 向きと長さ
勾配ベクトルには2つの意味がある。
- 向き: 関数が一番急に増える方向
- 長さ: その方向に動いたときの増加の勢い
「一番急に増える方向」の逆が「一番急に減る方向」になるので、損失 (ここで はモデルのパラメータ全部をまとめた記号) の勾配 を計算してその逆向きに を動かせば、損失が減る方向に進める。 これが次回の主役、勾配降下の中核にあたる動きだ。
等高線で見る勾配
さっきの偏微分章で出した「お椀」の地形を、真上から見下ろしたのが次の図だ。 同心円は「同じ高さの点をつないだ線」(等高線)を表していて、中心に近いほどお椀の底(低い)、外に行くほど高くなる。
図の赤い点はお椀の中腹の1点で、そこから伸びる赤い矢印が勾配ベクトル だ。 見てわかるとおり、勾配は必ず等高線に垂直で、より高いほうを向く。
なぜ偏微分を並べただけで「最急方向」になるのか
「偏微分を並べただけのベクトルが、なぜ一番急な方向を指すのか」は自然な疑問なので、直感だけ添えておく。
任意の方向 に少し動いたときの の変化率は、勾配と の内積 になる。 内積は前のベクトル記事でやったとおり、向きが揃っているほど大きく、直交で0、逆向きで負になる。 したがって、 を勾配と同じ向きにしたときに変化率が最大化される、という仕組みだ。
厳密な証明はコーシー・シュワルツ不等式で詰める話だが、AI記事を読む範囲では「内積が最大になる向き」で足りる。
巨大次元でも発想は同じ
AIのモデルでは、勾配 の次元数はパラメータ数(何億〜何兆)と同じ巨大なベクトルになる。 3次元以上は直接可視化できないが、「どの方向に動いたら損失が一番急に減るかを指し示すベクトル」という発想は2次元の例と変わらない。
ベクトルや行列に対する微分
ここまでの勾配は「スカラー関数 をベクトル で微分する」パターンで、AI記事では他にも色々な組み合わせの微分が出てくる。 高校範囲ではないので深入りは避けるが、論文で記号を見たときに引っかからないように、どのパターンがあるかだけ表で整理しておく。
| 何を何で微分 | 表記例 | 結果の形 | AIでの用途 |
|---|---|---|---|
| スカラー を ベクトルで | , | ベクトル( と同じ形) | 勾配降下の主役、前節の勾配そのもの |
| スカラー を 行列で | , | 行列( と同じ形) | 各層の重み更新 |
| ベクトル を ベクトルで | 行列(ヤコビ行列) | 逆伝播で層から層へ勾配を流す | |
| ベクトル を スカラーで | ベクトル | 位置 を時刻 で微分すると速度、もう一回で加速度。AIより物理寄り |
どれも発想は共通で、「結果となる要素ひとつひとつが、入力のどれかに対する偏微分」というだけだ。 記号が物々しく見えても、中身は偏微分を並べた表でしかない。
高校物理を先に履修した人には、表の4つめ(ベクトルをスカラーで微分)が一番馴染みのある形になる。位置ベクトル を時間 で微分したのが速度 、もう一度微分したのが加速度 で、まさにこの形だ。
ちなみに高校物理で「」「」と覚えさせられる等加速度運動の公式も、この の関係を時間で積分し直せば機械的に出てくる。 微積を知っている立場から見れば導出可能な式なので、本来は丸暗記する必要のない話になる。
並べ方のルールだけ押さえる
- は と同じ形の行列で、 要素が
ヤコビ行列は縦に出力の要素、横に入力の要素を並べた行列で、 要素が
AI記事で 、、ヤコビ行列 のような記号が出てきたら、「要素ごとに偏微分を並べただけの多次元データ」と読み替えれば足りる。
本当の使い方(逆伝播で連鎖律がどう行列の掛け算になるか等)は、次回の勾配降下・逆伝播記事で実例と一緒に見る。
積分をざっと
最後に積分に少しだけ触れる。
ここまで微分を扱ってきたが、ちょうど逆向きの操作として 積分 が対になっている。記号は (インテグラル)だ。
積分には2つの見方がある
積分には、見た目は別物だが裏で繋がっている2つの捉え方がある。
- 微分の逆操作: を満たす関数 を の
原始関数と呼ぶ。これを探すのが不定積分で、 と書く。定数 は微分すると消えるので、原始関数が1つ決まっても定数ぶんの不定性が残る。 - 関数の下の面積: 区間 における のグラフと 軸で挟まれた領域の面積を
定積分と呼び、 と書く。
この2つが裏で繋がっている、というのが 微積分の基本定理 の主張で、
という形で「原始関数の端点での差が面積になる」と言っている。 微分の逆を取れば面積が計算できる、という関係だ。詳しい証明は解析学まで待つことになるが、結論だけ押さえておけば読む分には足りる。
さっきの等加速度運動を積分で
前節の例は、積分の側から見直すときれいに閉じる。 加速度 が一定のとき、時間 で順に積分していくと、
となり、高校物理の等加速度運動の公式がそのまま出てくる。 積分のたびに出てくる定数 、 は、「初速度」「初期位置」に対応している。
AI記事で積分が出てくる場面
AI記事で積分が出てくる場面は限定的だ。
- 連続分布の確率計算(期待値 )
- 拡散モデル(diffusion)で使われる確率微分方程式
- 情報理論の連続版エントロピー
LLMまわりの記事を読む範囲ではほぼ出てこないので、 を見たら「微分の逆」か「面積」のどちらかで読み替えれば足りる。
ここまで読めると何が読めるか
この記事の範囲で、AIの学習まわりの式がかなり追えるようになる。
| 見かける形 | 読み方 |
|---|---|
| 重み を動かしたら損失 がどう動くか | |
| 他を固定した上での、 に対する変化率 | |
| パラメータ全体に対する勾配ベクトル | |
| / | 行列 と同じ形の、要素ごとの偏微分の集まり |
| ヤコビ行列、出力 × 入力の偏微分表 | |
| そのまま | |
| / 連鎖律 | 合成関数の微分、逆伝播の骨格 |
式そのものを解ける必要はなくて、「何が何に対する変化率なのか」が読めれば、論文や実装の勾配まわりの話が数字の羅列じゃなくなる。
飛ばして問題ない話
入門の段階では、以下は無視してOKだ。
| 用語 | 中身 | なぜ飛ばしていいか |
|---|---|---|
| ε-δ 論法 | 極限の厳密な定義 | 「微小に動かす」の直感で足りる |
| テイラー展開 | 関数を多項式で近似する式 | 出てきたら定義を見に行く程度で可 |
| 積分の計算テクニック | 置換積分、部分積分など | LLM記事では積分自体が稀 |
| 高階微分 | 微分を何回も適用した形 | Adam等のoptimizer内部で使われるが、名前だけでOK |
| ヘッセ行列 | 2階の偏微分をまとめた行列 | Optimizer内部で使われるが、名前だけでOK |
| 陰関数の微分 | 方程式で定義された関数の微分 | AI記事ではほぼ出ない |
ニューラルネットの学習で最低限押さえるべきは、べき関数と ・ の微分、そして連鎖律の3つだ。
おまけ: 試験などで手計算が必要になったら
本筋からは外れるが、ここまでは「読める」に寄せてきたぶん、手で微分を解く場面の公式はだいぶ省いてきた。 E資格のようにディープラーニング向けの試験だと、実際に微分を計算する問題も出てくる。 その場面でよく使うものだけ、補足としてまとめておく。
積と商の微分
2つの関数の積や商を微分するルール。
具体例で を微分すると、
左半分が「前を微分×後ろはそのまま」、右半分が「前はそのまま×後ろを微分」、あとは足し合わせる。
合成関数の追加例
連鎖律を実際に使うときの定番パターン。
| 元の関数 | 導関数 |
|---|---|
どれも「外を微分 × 内を微分」で処理できる。
一般の底の指数・対数、逆三角関数
AIでは底が で揃えられるが、試験では一般の底や逆三角関数も混ざる。
| 元の関数 | 導関数 |
|---|---|
底が のとき なので、 や に揃うのが見える。 が「微分で形が崩れない特別な底」と呼ばれる理由がここにもある。
なぜ (a^x)’ = a^x log a になるのか
ついでに、上の公式の出どころを辿っておく。 どんな指数関数 も、 を使って書き換えられる。
ここで は自然対数()。両辺の 乗を取ると、
の微分は、連鎖律で「外 × 内」に分解できる。
- 外 ( の性質がそのまま効く)
- 内 ( は定数)
2つを掛け合わせると、
のときは なので、係数が綺麗に消えて、
に落ちる。「 だけ係数1が出るのはなぜか」の正体は、 で余計な がちょうど消えるから、と読める。
(log_a x)’ のほうも
同じ流れで対数側も辿れる。底変換を使うと、
は定数なので、微分で外に出るだけだ。
のときはやはり が効いて、 に揃う。
指数関数も対数関数も、一般の底 で書くと という余計な係数が出てくるが、 のとき でそれが消える。 これが と自然対数がAIで常連になっている、式のレベルの理由になっている。
次に読むと繋がりやすい記事
- AIの記事でよく見る数式、ここだけ読めば怖くない 重み付き足し算・シグモイド・softmax・学習の流れ。シリーズの1本目
- AIの記事でよく出るベクトルと行列、ここだけ読めれば怖くない 内積・行列積・転置。勾配ベクトルの土台。シリーズの2本目
- AIの記事でよく出る確率と統計、ここだけ読めれば怖くない softmax・交差エントロピー・パープレキシティ。微分対象の損失の中身。シリーズの3本目
- MoonshotAI(Kimi)がTransformerの残差接続をAttentionで置き換えるAttnResを提案、1.25倍の計算効率 勾配消失と残差接続の実例。次回(5本目)の前段にもなる
気になった人向けの用語メモ
この節は読み飛ばしてOK。
| 用語 | 意味 |
|---|---|
| 微分 | ある点での関数の傾き(瞬間的な変化率) |
| 導関数 | 元の関数を微分して得られる、点ごとの傾きを与える関数 |
| 「 で微分する」演算子(ライプニッツ記法) | |
| 導関数(ラグランジュ記法) | |
| 約2.71828…の定数。複利の極限 として現れ、 を満たす唯一の底でもある | |
| 自然対数 | 底が の対数。AI系では単に と書かれることも多い |
| 連鎖律 | 合成関数の微分ルール。 |
| 偏微分 | 多変数関数で1つの変数だけ動かしたときの変化率 |
| 勾配 | 偏微分を並べたベクトル。関数が一番急に増える方向を指す |
| ヤコビ行列 | 出力ベクトルの各要素を、入力ベクトルの各要素で偏微分して並べた行列 |
| 積分 | 関数の下の面積。微分の逆操作 |
次は勾配降下と逆伝播に進む。今回の連鎖律と勾配がそのまま主役になる。