← 数学・統計

統計 情報理論

エントロピー・KLダイバージェンス計算機

他の言語 日本語 | English

確率ベクトルから、エントロピー、クロスエントロピー、KL ダイバージェンス、JS ダイバージェンスをまとめて確認できます。P と Q を貼り付け、必要なら正規化して、不確かさや分布のずれを素早く見たいときのページです。

初版は離散確率ベクトルに絞っています。連続分布の積分や大規模ダッシュボード比較ではなく、軽い確認と共有を優先した構成です。

使い方

  1. 先に指標を選びます。Entropy は P だけを使い、cross-entropy、KL divergence、JS divergence は P と Q の両方を使います。
  2. カンマ、空白、タブ、改行区切りで値を貼り付けます。件数や重みを入れるなら正規化をオンにします。
  3. 主結果と正規化後ベクトルのプレビューを並べて見て、ゼロ確率、偏り、正規化の影響を確認します。

Wave 5 ja 展開

離散分布の不確かさと分布ずれ

1 つのベクトルの不確かさを見るなら entropy、2 つの分布のずれを比べるなら cross-entropy、KL divergence、JS divergence を使います。

入力

Cross-Entropy、KL Divergence、JS Divergence では P と Q の両方が必要です。

指標を選び、P と必要に応じて Q を貼り付けて計算します。

正規化後ベクトルのプレビュー

番号 使用した P 使用した Q 中点 M

まだ正規化後ベクトルのプレビューはありません。

エントロピーとダイバージェンスの読み方

エントロピーは 1 つの分布の不確かさを表します。確率質量が広く分散していれば上がり、少数カテゴリへ集中していれば下がります。

エントロピーとクロスエントロピー

クロスエントロピーは 2 つの分布を比べます。P に従うデータを、Q に従うものとして符号化したときのコストを表し、Q が P に近いほど P のエントロピーに近づきます。

KL ダイバージェンスには向きがあります

KL(P||Q)KL(Q||P) は別の問いです。左側の分布が重み付けの基準になるため、通常は同じ値になりません。

ゼロ確率は重要です

P に質量が残る項目で Q が 0 を取ると、cross-entropy と KL divergence は無限大になります。実務では smoothing や極小確率の扱いが重要になる理由です。

よくある質問

エントロピーとクロスエントロピーはどう違いますか?

エントロピーは 1 つの分布 P の中にある不確かさを測ります。クロスエントロピーは、実際には P に従うデータを Q で符号化したときに必要なビット数や nat 数を表すため、P と Q の両方に依存します。

なぜ KL ダイバージェンスは対称ではないのですか?

KL ダイバージェンスは左側の分布を基準に重み付けします。KL(P||Q) は P に従うときに Q がどれだけ意外かを見ており、KL(Q||P) とは別の問いになります。

P には質量があるのに Q が 0 を取るとどうなりますか?

その項目では Q による符号化長が実質的に無限大になるため、クロスエントロピーと KL ダイバージェンスは無限大になります。このページではその状態を明示して表示します。

共有 URL にベクトル値は含まれますか?

含まれません。共有 URL には metric、base、正規化、桁数などの軽い設定だけを保存し、P と Q はブラウザ内に残します。

コメント(任意)

読み込み負荷を下げるため、コメントは必要なときだけ読み込みます。