yuuho.wiki

カオスの欠片を集めて知恵の泉を作る

ユーザ用ツール

サイト用ツール


study:math:start

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
study:math:start [2021/08/26 06:58] – [確率] yuuhostudy:math:start [2025/02/26 02:54] (現在) – [交差判定] yuuho
行 188: 行 188:
  
 === 二次元 === === 二次元 ===
 +
 +**二点を通る直線について**
 +
 +${\bf l} = {\bf x}_1 \times {\bf x}_2$
 +
 +
 +**交差判定について**
  
 直線は ${\bf l} = (a,b,c)^\top$ として表す.\\ 直線は ${\bf l} = (a,b,c)^\top$ として表す.\\
行 227: 行 234:
  
  
-==== エントロピー関係 ====+==== Binary Cross Entropy ==== 
 + 
 +事象が二つの離散確率分布 $p$ と $q$ がある。 
 + 
 +交差エントロピーの定義から 
 +$$H(p,q) = E_p[-\log q] = \sum_{x\in \{0,1\}} \left( -p(x) \log q(x) \right) = -p(0) \log q(0) - p(1) \log q(1) $$ 
 + 
 +分布 $p$ のほうを正解とすると、\\ 
 +半端な値ではなく、二値のどちらかが正解となるので、\\ 
 +$p(0)=0, p(1)=1$ となるか $p(0)=1, p(1)=0$ となる。\\ 
 +したがって $H(p,q)$ は $-\log q(0)$ または $-\log q(1)$ となる。 
 + 
 +分布 $q$ のほうはニューラルネットの出力値である。\\ 
 +分布の和が $1$ であることから $q(0) = 1-q(1)$ の関係にある。\\ 
 +なので結局 $H(p,q)$ は $-\log (1- q(1))$ または $-\log q(1)$ になることとなる。 
 + 
 +ここで $p=0$ を $p(0)=1, p(1)=0$ のこととし、\\ 
 +$p=1$ を $p(0)=0, p(1)=1$ のこととする。\\ 
 +同様に$q=0$ を $q(0)=1, q(1)=0$ のこととし、\\ 
 +$q=1$ を $q(0)=0, q(1)=1$ のこととする。\\ 
 +こうすると $H(p,q) = - (1-p) \log (1-q) - p \log q $ となり、\\ 
 +${\rm bce}(q,0) = -\log(1-q)$ 、 ${\rm bce}(q,1) = -\log(q)$ と一致する。 
 + 
 +==== Cross Entropy ====
  
 +本来の交差エントロピーは離散確率変数のとき
 +$$ H(p,q) = -\sum_x p(x) \log q(x) $$ である。
 +結合エントロピーでも $H(p,q)$ という表記になるので注意(別物)。
 ===== 最適化 ===== ===== 最適化 =====
 | optimal point | 最適点 (最適解となる点) | | optimal point | 最適点 (最適解となる点) |
study/math/start.1629961098.txt.gz · 最終更新: 2021/08/26 06:58 by yuuho