【LaTex】機械学習関連コード一覧

MathJax-LaTex
スポンサーリンク

機械学習やディープラーニングによく出てくるMathJax-Latexのコード一覧です。

Texコードのまとめサイトはいくつかありますが、分野ごとに分かれていると見やすいと感じたのでまとめてみました。

ギリシャ文字と特殊文字

コード表示意味
\alpha$\alpha$アルファ
\beta$\beta$ベータ
\omega$\omega$オメガ
\eta$\eta$イータ
\mu$\mu$ミュー
\varepsilon$\varepsilon$イプシロン
\sigma$\sigma$シグマ
\gamma$\gamma$ガンマ
\partial$\partial$偏微分
x^2$x^2$上付き文字
x_2$x_2$下付き文字
\hat{x}$\hat{x}$

基本式と不等号

コード表示意味
\frac{}{}$\frac{1}{2}$分数
\sum_{}^{}$\sum_{i=0}^{N}$シグマ式
\sqrt{}$\sqrt{2}$二乗根
\odot$\odot$要素積
\approx$\approx$ニアリーイコール
\geqq$\geqq$大なりイコール
\leqq$\leqq$小なりイコール

実用例

シグモイド関数

$$h(x)=\frac{1}{1+exp(-x)}$$

h(x)=\frac{1}{1+exp(-x)}

ReLu関数

$$h(x)=
\begin{cases}
x\quad(x > 0) \\
0\quad(x\leqq 0)
\end{cases}$$

h(x)=
\begin{cases}
x\quad(x > 0) \\
0\quad(x\leqq 0)
\end{cases}

ソフトマックス関数

$$y_k=\frac{exp(a_k)+C’}{\sum_{i=1}^{n}exp(a_i+C’)}$$

y_k=\frac{exp(a_k)+C`}{\sum_{i=1}^{n}exp(a_i+C`)}

二乗和誤差

$$
E=\frac{1}{2}\sum_{k}(y_k-t_k)^2
$$

E=\frac{1}{2}\sum_{k}(y_k-t_k)^2

交差エントロピー誤差

$$
E=-\sum_{k}t_k\log y_k
$$

E=-\sum_{k}t_k\log y_k

コメント

タイトルとURLをコピーしました