AI関連の用語集

シャノンエントロピー(Shannon Entropy)とは?-AI関連の用語集【クラベルAI】-

シャノンエントロピー(Shannon Entropy)とは?-AI関連の用語集【クラベルAI】-

シャノンエントロピー(Shannon Entropy)

シャノンエントロピー(Shannon Entropy)は、「ある出来事をどれだけ予想しにくいか」を数字で表す指標です。
同じ箱から取り出す結果がバラバラに出るほどエントロピーは高く、ほぼ同じ結果ばかりなら低くなります。情報の世界では、不確かさ=必要な情報量と考えるため、エントロピーは「平均して何ビットのヒントが必要か」を教えてくれます。

日常生活での使い方としては次の通りです。

  • 公平なコイン(表50%, 裏50%)は当てにくい=エントロピー1ビット

  • 9割が表のコインはだいたい当たる=1ビット未満。

  • サイコロの目がすべて同じ確率(1/6)だと、かなり当てにくい(およそ2.585ビット)。

  • 結果が必ず同じならエントロピーは0(不確かさゼロ)。

シャノンエントロピー(Shannon Entropy)関連用語

シャノンエントロピー(Shannon Entropy)に関連する単語は以下の通りです。

  • 自己情報量(Self-Information)
  • KLダイバージェンス
  • エントロピー率

シャノンエントロピー(Shannon Entropy)やさしい解説

シャノンエントロピー(Shannon Entropy)は「どれだけ予想しにくいか」のものさし。

  • ぜんぶ同じくらい起こりそう(例:よく混ぜたトランプから1枚)→高い:当てにくい。
  • ほとんど同じ結果になる(例:当たりが1つしかない福引)→低い:当たりやすい。

例えば、くじ引きで赤・青・黄が同じ数入っていると、どれが出るか本当に分かりません(エントロピー高)。もし赤が袋のほとんどを占めていたら、赤が出やすいのでだいたい予想できます(エントロピー低)。


コンピュータやAIは、この予想のむずかしさをビットという単位で数え、どれだけ情報(ヒント)を伝えれば十分かを計算します。AIの学習では、現実の起こり方に合わせてムダなく当てられるように工夫しており、そのときにエントロピーや交差エントロピー、KLダイバージェンスが活躍します。


AI関連の用語集【まとめ】

AI関連の用語集が気になる方のために、用語集一覧を作成しました。AIに関する学びを深めたいとお考えの方はぜひご覧ください。

\AIの導入・開発・相談なら【クラベルAI】に相談しよう!/

  • この記事を書いた人
  • 最新記事

クラベルAI運営事務局

AI活用の第一相談なら「クラベルAI」 このコンテンツはクラベルAI運営事務局が作成しております。 事務局メンバーには、第1回生成AIパスポートの資格保有者も在籍。 AI活用における、誰に・何を・どう聞けばいいの?というところからAIを使った大規模開発の相談まで、「クラベルAI」なら何度でも無料でご相談いただけます。ご相談内容に合わせて最適なパートナーとのマッチングサービスも提供。提携パートナーも随時募集中です。(個人・法人どなた様もご応募可能いただけます。) AI活用の第一相談所を目指し、日々有益な情報発信に努めております。 ご意見・ご感想等ございましたらお気軽にご連絡ください。運営会社は株式会社フィオリエラ(https://fioriera.co.jp/)です。

-AI関連の用語集
-,