1.
Deepbook
2.
ユークリッド原論
2.1.
公準 (Postulate)
2.2.
公理 (Axiom)
2.3.
定義 (Definition)
3.
LaTeX
3.1.
TeXとLaTex
3.2.
変数 (variable)
3.3.
分数 (Fraction)
3.4.
記号 (symbol)
3.5.
集合 (set)
3.6.
数の集合 (Set of numbers)
3.7.
関数 (function)
3.8.
集計関数 (aggregate function)
3.9.
三角関数 (trigonometric function)
3.10.
ギリシャ文字 (greek letters)
3.11.
数列 (sequence)
3.12.
級数 (series)
3.13.
区間 (interval)
3.14.
ベクトル (vector)
3.15.
累乗/冪乗 (power)
3.16.
指数 (exponential, index)
3.17.
対数 (Logarithm)
3.18.
累乗根 (root)
3.19.
行列 (matrix)
3.20.
極限 (limit)
3.21.
微分 (derivative)
3.22.
積分 (Integral)
3.23.
組合せ (combination)
3.24.
階乗 (factorial)
3.25.
科学的記数法 (Scientific Notation)
4.
R
4.1.
パッケージ
4.2.
oop
4.3.
その他
5.
数論
5.1.
数
5.2.
ゼロ
5.3.
次元
5.4.
完全数
5.5.
メルセンヌ数
5.6.
素数
5.7.
関数
5.8.
数の集合
5.9.
虚数
5.10.
複素数
6.
論理学
6.1.
命題
6.2.
公理
6.3.
定理
6.4.
条件
6.5.
仮定と結論
6.6.
証明
6.7.
論理包含
6.8.
必要条件と十分条件
6.9.
逆・裏・対偶
6.10.
論理
6.11.
論証と実証
6.12.
妥当性
6.13.
演繹法と帰納法
6.14.
一般化と特殊化
6.15.
背理法
6.16.
三段論法
6.17.
Non-Truth-Functional Interpretation
6.18.
数学的帰納法
6.19.
自然性
6.20.
自然演繹
7.
ベクトル解析
7.1.
スカラー場
7.2.
ベクトル場
7.3.
ナブラ
7.3.1.
ナブラ演算子
7.3.2.
grad (勾配, $\nabla f$)
7.3.3.
div (発散, $\nabla \cdot V$)
7.3.4.
rot (回転, $\nabla \times V$)
7.3.5.
ラプラシアン($\nabla^2 f$)
7.3.6.
三重積
8.
計算機科学
8.1.
分割統治法
8.2.
動的計画法
8.3.
オーダー
9.
集合論
9.1.
集合と要素
9.2.
閉集合、開集合
9.3.
アレフ数
9.4.
元
9.5.
単位元
9.6.
上限下限
10.
解析学
10.1.
微分
10.2.
偏微分
10.3.
方向微分
10.4.
全微分
10.5.
積分
10.6.
ガウス積分
10.7.
数値微分と解析微分
10.8.
冪乗の微分
10.9.
対数の微分
11.
線形代数
11.1.
線形性
11.1.1.
線形性とは
11.1.2.
線形独立
11.1.3.
加法性(additivity)
11.1.4.
斉次性(homogeneity)
11.2.
座標
11.3.
定義域と値域
11.4.
ベック作用素
11.5.
固有値
11.5.1.
固有ベクトル
11.5.2.
固有値
11.5.3.
固有値問題
11.5.4.
固有方程式
11.5.5.
固有空間
11.6.
ベクトル
11.6.1.
ベクトル
11.6.2.
ベクトルの大きさ
11.6.3.
単位ベクトル
11.6.4.
正射影ベクトル
11.6.5.
基底ベクトル
11.6.6.
数ベクトル
11.6.7.
位置ベクトル
11.6.8.
ベクトル値関数
11.7.
行列
11.7.1.
写像
11.7.1.1.
写像
11.7.1.2.
線形変換
11.7.1.3.
線形変換の意味
11.7.2.
基本的な行列
11.7.2.1.
単位行列
11.7.2.2.
零行列
11.7.2.3.
逆行列
11.7.3.
対XXX化
11.7.3.1.
転置行列
11.7.3.2.
対称行列
11.7.3.3.
対角行列
11.7.3.4.
対角行列 vs. 対称行列
11.7.3.5.
対角化
11.7.3.6.
ジョルダン標準形(準対角化)
11.7.4.
正XXX行列
11.7.4.1.
正方行列
11.7.4.2.
正則行列 (非特異行列)
11.7.4.3.
正規行列
11.7.5.
正規直交座標
11.7.5.1.
正規直交基底
11.7.5.2.
正規直交系
11.7.5.3.
直行行列
11.7.5.4.
直行行列の特徴
11.7.6.
特異値系
11.7.6.1.
特異行列
11.7.6.2.
特異値分解
11.7.6.3.
固有値分解 vs. 特異値分解
11.7.7.
複素行列系
11.7.7.1.
随伴行列 (ダガー行列, 共役転置行列)
11.7.7.2.
エルミート行列
11.7.7.3.
ユニタリ行列
11.7.7.4.
実数行列と複素数行列の関係
11.7.8.
三角関数系
11.7.8.1.
ヤコビアン
11.7.8.2.
回転行列
11.7.9.
その他の行列
11.7.9.1.
小行列
11.7.9.2.
長方行列
11.7.9.3.
表現行列
11.7.9.4.
階段行列(行階段形)
11.8.
操作
11.8.1.
内積と外積
11.8.2.
色々な積
11.8.3.
ノルム
11.8.4.
トレース
11.8.5.
次元
11.8.6.
コサイン類似度
11.8.7.
行列式
11.8.8.
ランク(階数)
11.8.9.
核(Kernel)と像(Image)
12.
トポロジー
12.1.
多様体
13.
統計学
13.1.
統計学について
13.2.
3種類の統計学
14.
データ
14.1.
データとは?
14.2.
質的データのと量的データ
14.3.
データの尺度
14.4.
データの次元
14.5.
データの単位
14.6.
データの型
14.7.
集約されたデータ
14.8.
データの代表値
14.9.
データの平均
14.10.
データの頻度
14.11.
データと変数
14.12.
離散変数と連続変数
14.13.
データと集合
14.14.
有限集合と無限集合
14.15.
データの関係
15.
データ分析
15.1.
データの種類
15.2.
データ分析フロー
16.
多次元データ
16.1.
相関と回帰と因果
16.2.
時系列データの相関
17.
確率
17.1.
関数
17.1.1.
確率密度関数(probability density function、PDF)
17.1.2.
累積分布関数(cumulative distribution function, CDF)
17.2.
確率変数と確率分布
17.3.
離散型と連続型
17.4.
確率の定義
17.5.
標本と事象
17.6.
事象の演算
17.7.
順列と組み合わせ
17.8.
確率変数
17.9.
期待値と分散と標準偏差
17.10.
確率密度
17.11.
確率分布
17.12.
歪度と尖度
17.13.
母関数
17.14.
モーメント
17.15.
キュラメント
17.16.
チェビシェフの不等式
18.
ベイズ確率
18.1.
ベイズ確率
18.1.1.
確信度
18.1.2.
ベイジアン
18.1.3.
主観確率と客観確率
18.1.4.
事前確率と事後確率
18.1.5.
規格化(normalization)
18.1.6.
事後確率と条件付き確率の違い
18.2.
例
18.2.1.
トランプの例(事前確率と事後確率)
18.2.2.
トランプの例(同時確率と条件付き確率)
18.2.3.
検査の例
18.3.
ベイズの定理
18.3.1.
ベイズの定理
18.3.2.
同時確率
18.3.3.
条件付き確率
18.3.4.
周辺確率
18.4.
最尤法
18.4.1.
最尤原理
18.4.2.
最尤推定量
18.4.3.
二項分布の最尤推定量
18.4.4.
尤度関数、対数尤度関数、スコア関数
19.
確率分布
19.1.
離散型分布
19.1.1.
離散一様分布
19.1.2.
ベルヌーイ分布
19.1.3.
二項分布
19.1.4.
幾何学分布
19.1.5.
超幾何学分布
19.1.6.
ポアソン分布
19.1.7.
負の二項分布
19.2.
連続型分布
19.2.1.
連続一様分布
19.2.2.
ベータ分布
19.2.3.
コーシー分布
19.2.4.
対数正規分布
19.2.5.
指数分布
19.2.6.
正規分布
19.2.6.1.
正規分布
19.2.6.2.
正規分布の式の意味
19.2.6.3.
正規分布と中心極限定理
19.2.7.
ガンマ分布
19.2.8.
グンベル分布
19.2.9.
グンベル極値分布
19.2.10.
パレート分布
19.2.11.
ワイブル分布
19.3.
標本分布
19.3.1.
F分布
19.3.2.
T分布
20.
多次元確率分布
20.1.
条件付き確率分布
20.2.
共分散
20.3.
独立と無相関
20.4.
同時確率分布
20.5.
周辺確率分布
20.6.
多次元正規分布
20.7.
正規分布の再生性
21.
推測統計
21.1.
目的
21.2.
基本用語
21.2.1.
母集団
21.2.2.
標本
21.2.3.
標本平均
21.2.4.
母数
21.2.5.
抽出
21.2.6.
分布
21.2.7.
分散、標準偏差
21.2.8.
平均、分散、尖度、尖度
21.2.9.
統計量(MSEなど)
21.2.10.
パラメトリック
21.3.
推測統計の有名な法則
21.3.1.
独立同分布
21.3.2.
大数の法則/平均への回帰
21.3.3.
中心極限定理/ゴルトンボード
21.3.4.
漸近的
21.4.
誤差
21.5.
カイ二乗分布
21.6.
T分布
21.7.
F分布
21.8.
自由度
21.9.
標準正規分布
21.10.
推定
21.10.1.
推定量
21.10.2.
点推定
21.10.3.
区間推定
21.10.4.
推定フロー
21.10.5.
推定の基準
21.11.
仮説検定
21.11.1.
仮説検定
21.11.2.
T検定
21.11.3.
$\chi^2$検定
21.11.4.
ウェルチ検定
22.
回帰
22.1.
一般化線型回帰
22.2.
リンク関数
22.3.
一般線形化モデル
22.4.
一般線形化モデル
22.5.
ロジスティック回帰
22.6.
サポートベクターマシン回帰
22.7.
ロジット
23.
機械学習
23.1.
前処理
23.1.1.
train/validate/test
23.1.2.
データ分布の解釈
23.1.3.
数値データ
23.1.4.
カテゴリーデータ (ラベル値とone-hotベクトル)
23.1.5.
テキストデータ
23.1.6.
日付・時間データ
23.1.7.
不均衡データ
23.1.7.1.
Oversampling
23.1.7.2.
Undersampling
23.1.8.
欠損値の処理
23.1.8.1.
欠損値の発生理由
23.1.8.2.
リストワイズ法
23.1.8.3.
ペアワイズ法
23.1.8.4.
平均代入法
23.1.9.
データオーギュメンテーション
23.1.9.1.
mixup
23.2.
学習
23.2.1.
目的
23.2.2.
学習の種類
23.2.3.
アルゴリズムの選択フロー
23.2.4.
転移学習とファインチューニング
23.2.5.
確率的勾配降下法
23.2.6.
ミニバッチ学習
23.2.7.
線形分離可能性
23.2.8.
交差検証
23.2.9.
ハイパーパラメータ
23.2.10.
inner-class/intra-class
23.2.11.
The 1 cycle policy
23.2.12.
半教師あり学習
23.3.
学習方法
23.3.1.
教師あり学習
23.3.1.1.
回帰
23.3.1.2.
分類
23.3.2.
教師なし学習
23.3.2.1.
クラスタリング
23.3.2.2.
次元削減
23.3.3.
半教師あり学習
23.3.4.
強化学習
23.4.
教師ありのアルゴリズム
23.4.1.
損失関数型
23.4.1.1.
ロジスティクス回帰
23.4.1.2.
ニュートラルネットワーク
23.4.1.3.
SVM
23.4.1.4.
線形分離可能性
23.4.2.
決定木型
23.4.2.1.
決定木
23.4.2.2.
ランダムフォレスト
23.4.2.3.
XGBoost
23.4.3.
損失型 vs 決定木
23.5.
誤算関数
23.5.1.
誤差関数
23.5.2.
誤差関数の分類
23.5.3.
分類誤算関数
23.5.3.1.
クロスエントロピー誤差, log loss
23.5.3.2.
ソフトマックス関数
23.5.3.3.
Softmax Loss
23.5.3.4.
Center Loss
23.5.3.5.
AM Softmax Loss
23.5.3.6.
Focal loss
23.5.3.7.
Exponential loss
23.5.3.8.
Hinge loss
23.5.3.9.
KL Divergence/Relative Entropy
23.5.3.10.
SoftPlus
23.5.4.
回帰誤算関数
23.5.4.1.
MSE, Quadratic loss, L2 Loss, 平均二乗誤差、分散
23.5.4.2.
SSE, 二乗和誤差
23.5.4.3.
MAE, L1 Loss, 平均絶対誤差
23.5.4.4.
RMSE, 平均二乗誤差平方根
23.5.4.5.
RMS, 二乗平均平方根、標準誤差
23.5.4.6.
RSS, 残差平方和/誤差二乗和
23.5.4.7.
SRSS, 二乗和平方根
23.5.4.8.
Hurber loss, Smooth Mean Absolute Error
23.5.4.9.
Log-cosh loss
23.5.4.10.
Quantile loss
23.6.
活性化関数
23.6.1.
活性化関数
23.6.2.
シグモイド関数
23.6.3.
ランプ関数
23.6.4.
Tanh
23.6.5.
ロジスティック関数
23.6.6.
ステップ関数
23.6.7.
恒常関数
23.6.8.
その他の関数
23.7.
最適化
23.7.1.
ドロップアウト
23.7.2.
アダム
23.7.3.
最適化手法
23.7.4.
正則化 (L1, L2)
23.7.5.
正規化
23.8.
問題
23.8.1.
勾配消失
23.8.2.
過学習
23.8.3.
次元の呪い
23.8.4.
不均衡データ
23.9.
次元削減
23.9.1.
次元削減とは
23.9.2.
埋め込み空間
23.9.3.
PCA(次元削減)
23.9.4.
SNE
23.9.5.
t-SNE(ティースニー)
23.10.
特徴選択
23.10.1.
特徴選択
23.10.2.
フィルタ法 (filter)
23.10.3.
ラッパー法 (wrapper)
23.10.4.
組み込み法 (embedded)
23.11.
バリデーション手法
23.11.1.
ホールドアウト検証
23.11.2.
交差検証
23.12.
ハイパーパラメーター最適化手法
23.12.1.
グリッドサーチ
23.12.2.
ランダムサーチ
23.12.3.
ベイジアン最適化
23.13.
精度評価他
23.13.1.
精度・適合率・再現率・F値
23.13.2.
PR曲線・ROC曲線
23.13.3.
重要度
23.14.
その他
23.14.1.
醜いアヒルの子の定理
23.14.2.
No-free-lunch theorem (NFLT)
23.14.3.
Toy Problem
23.14.4.
識別モデルと生成モデル
23.14.5.
多様体仮説
23.14.6.
GIGO
23.14.7.
料理と機械学習
23.15.
フォーマット
23.15.1.
ONNX
23.15.2.
PMML
23.15.3.
PFA
23.16.
高速化手法
23.16.1.
FP16
24.
距離学習
24.1.
距離
24.2.
距離学習
24.3.
Siamese Network/Contrastive Loss
24.4.
Triplet Network/Triplet Loss
24.5.
L2 Softmax Network
24.6.
距離の公理
24.7.
距離
24.7.1.
ユークリッド距離
24.7.2.
マハラノビス距離
24.7.3.
マンハッタン距離
24.7.4.
チェビシフ距離
24.7.5.
ミンコフスキー距離
25.
スパースモデリング
25.1.
スパースモデリング
25.2.
スパース化
26.
ニューラルネットワーク
26.1.
ネットワーク構造
26.1.1.
多層パーセプトロン
26.1.2.
ニューラルネットワーク
26.1.3.
GAN
26.1.4.
U-NET
26.1.5.
オートエンコーダー
26.1.6.
LSTM
26.1.7.
ResNet
26.1.8.
グラフ
26.1.9.
Grad-CAM
26.1.10.
VAE
27.
SVM
27.1.
SVM
27.2.
サポートベクトル
27.3.
VC次元
27.4.
カーネル
27.5.
ガウシアンカーネル(RBF)
27.6.
カーネルトリック
28.
コンピュータービジョン(CV)
28.1.
CVの目的
28.2.
CNN
28.2.1.
CNNの用語
28.2.2.
畳み込みの計算
28.2.3.
プーリングの計算
28.2.4.
Global Average Pooling
28.3.
用語
28.3.1.
ROI/Blob/スパーピクセル/有効視野/FOV
28.3.2.
global feature/local feature
28.3.3.
標本化・量子化・符号化
28.4.
1stgのCNN
28.4.1.
AlexNet
28.4.2.
ZFNet
28.4.3.
VGG
28.4.4.
ResNet
28.5.
RCNN系
28.5.1.
R-CNN
28.5.2.
Selective Search
28.5.3.
PRN (Regional Proposal Network)
28.5.4.
Fast R-CNN (Detector)
28.5.5.
Faster R-CNN (CNN + PRN + Fast R-CNN)
28.5.6.
Mask R-CNN (Faster F-CNN + Mask)
28.6.
カメラ
28.6.1.
カメラ行列
28.6.2.
ワールド座標
28.6.3.
キャリビュレーション
28.7.
残差ネットワーク
28.8.
前処理
28.9.
相互相関関数
28.10.
画質評価
28.10.1.
MSE
28.10.2.
PSNR
28.10.3.
SSIM
28.10.4.
その他
28.11.
精度評価
28.11.1.
混同行列
28.11.2.
混同行列の例(分類)
28.11.3.
混同行列の例(物体検知)
28.11.4.
AUC
28.11.5.
ROC曲線とPR曲線
28.12.
セグメンテーション
28.12.1.
セマンティック・セグメンテーションとインスタンス・セグメンテーションの違い
28.12.2.
U-NETとMask R-CNNの違い
28.13.
オブジェクトトラッキング(SOT, MOT)
28.13.1.
Online VS. Batch
28.13.2.
MOTモデルの変遷
28.13.3.
SOT vs. MOT
28.13.4.
Track, ID Switch, Misses
28.13.5.
MOTA, MOTP, FAF, MT, ML, FP, FN, ID sw, Frag
28.13.6.
IDP, IDR, IDF1
28.13.7.
JDEモデル
28.13.8.
ROI Projection, ROI-Pool, ROI-Align
28.13.9.
カルマンフィルター
28.13.10.
割当問題とハンガリアン法
28.13.11.
Tracklet 特徴量
28.13.12.
費用最小フロー問題
28.13.13.
K最短経路ルーティング問題
28.13.14.
Bipartite-Matching
29.
情報理論
29.1.
情報
29.2.
自己情報量
29.3.
自己情報量の加法性(logの理由)
29.4.
エントロピー
29.5.
KLダイバージェンス(KL情報量)
29.6.
相互情報量
29.7.
交差エントロピー
30.
木
30.1.
決定木
30.1.1.
決定木とは
30.1.2.
決定木のアルゴリズム比較
30.1.3.
決定木とベイジアンネットワーク
30.1.4.
決定木の例 (CART)
30.2.
不純度
30.2.1.
不純度と情報利得
30.2.2.
不純度の算出
30.2.3.
ジニ不純度
30.3.
決定木の種類
30.3.1.
分類木
30.3.2.
回帰木
30.3.3.
ランダムフォレスト
30.3.4.
勾配ブースティング木
30.4.
アンサンブル学習
30.4.1.
アンサンブルとは?
30.4.2.
バイアスとバリアンスのトレードオフ
30.4.3.
ブースティング
30.4.4.
バギング
30.4.5.
スタッキング
31.
時系列
31.1.
AR,MR,(S)ARIMAモデル
31.2.
状態空間モデル
32.
クラスタリング
32.1.
K平均法
32.2.
K近傍法
32.3.
線形判別分析法
32.4.
階層的クラスタリング
32.5.
ガウシアンカーネル
33.
強化学習
33.1.
MDP
33.2.
Q学習
33.3.
DQN
34.
自然言語処理
34.1.
nlp
34.2.
分布仮説
34.3.
カウントベースと推論ベース
34.4.
Word2Vec
34.5.
CBOW
34.6.
skip-gram
35.
組み合わせ最適化
36.
ベイズ最適化
37.
効果検証
38.
群論
38.1.
可換
39.
圏論
39.1.
計算機科学
39.1.1.
共変性と反変性
40.
非ユークリッド幾何学
41.
その他
41.1.
足し算の抽象化
41.2.
畳み込み
41.3.
カリー化
41.4.
フーリエ変換
41.5.
フーリエ級数
41.6.
テイラー展開
41.7.
マクローリン展開
41.8.
ラジアン
41.9.
底の変換
41.10.
三角関数
41.11.
座標系
41.12.
双曲線関数
41.13.
ランダウの記法
41.14.
イプシロンデルタ論法
41.15.
オイラーの公式
41.16.
動径関数
42.
References
Light (default)
Rust
Coal
Navy
Ayu
Deepbook
可換
交換法則の事
除算は可換ではないが、分数を使うと乗算になるので可換になる