1. 1. Deepbook
  2. 2. ユークリッド原論
    1. 2.1. 公準 (Postulate)
    2. 2.2. 公理 (Axiom)
    3. 2.3. 定義 (Definition)
  3. 3. LaTeX
    1. 3.1. TeXとLaTex
    2. 3.2. 変数 (variable)
    3. 3.3. 分数 (Fraction)
    4. 3.4. 記号 (symbol)
    5. 3.5. 集合 (set)
    6. 3.6. 数の集合 (Set of numbers)
    7. 3.7. 関数 (function)
    8. 3.8. 集計関数 (aggregate function)
    9. 3.9. 三角関数 (trigonometric function)
    10. 3.10. ギリシャ文字 (greek letters)
    11. 3.11. 数列 (sequence)
    12. 3.12. 級数 (series)
    13. 3.13. 区間 (interval)
    14. 3.14. ベクトル (vector)
    15. 3.15. 累乗/冪乗 (power)
    16. 3.16. 指数 (exponential, index)
    17. 3.17. 対数 (Logarithm)
    18. 3.18. 累乗根 (root)
    19. 3.19. 行列 (matrix)
    20. 3.20. 極限 (limit)
    21. 3.21. 微分 (derivative)
    22. 3.22. 積分 (Integral)
    23. 3.23. 組合せ (combination)
    24. 3.24. 階乗 (factorial)
    25. 3.25. 科学的記数法 (Scientific Notation)
  4. 4. R
    1. 4.1. パッケージ
    2. 4.2. oop
    3. 4.3. その他
  5. 5. 数論
    1. 5.1. 数
    2. 5.2. ゼロ
    3. 5.3. 次元
    4. 5.4. 完全数
    5. 5.5. メルセンヌ数
    6. 5.6. 素数
    7. 5.7. 関数
    8. 5.8. 数の集合
    9. 5.9. 虚数
    10. 5.10. 複素数
  6. 6. 論理学
    1. 6.1. 命題
    2. 6.2. 公理
    3. 6.3. 定理
    4. 6.4. 条件
    5. 6.5. 仮定と結論
    6. 6.6. 証明
    7. 6.7. 論理包含
    8. 6.8. 必要条件と十分条件
    9. 6.9. 逆・裏・対偶
    10. 6.10. 論理
    11. 6.11. 論証と実証
    12. 6.12. 妥当性
    13. 6.13. 演繹法と帰納法
    14. 6.14. 一般化と特殊化
    15. 6.15. 背理法
    16. 6.16. 三段論法
    17. 6.17. Non-Truth-Functional Interpretation
    18. 6.18. 数学的帰納法
    19. 6.19. 自然性
    20. 6.20. 自然演繹
  7. 7. ベクトル解析
    1. 7.1. スカラー場
    2. 7.2. ベクトル場
    3. 7.3. ナブラ
      1. 7.3.1. ナブラ演算子
      2. 7.3.2. grad (勾配, $\nabla f$)
      3. 7.3.3. div (発散, $\nabla \cdot V$)
      4. 7.3.4. rot (回転, $\nabla \times V$)
      5. 7.3.5. ラプラシアン($\nabla^2 f$)
      6. 7.3.6. 三重積
  8. 8. 計算機科学
    1. 8.1. 分割統治法
    2. 8.2. 動的計画法
    3. 8.3. オーダー
  9. 9. 集合論
    1. 9.1. 集合と要素
    2. 9.2. 閉集合、開集合
    3. 9.3. アレフ数
    4. 9.4. 元
    5. 9.5. 単位元
    6. 9.6. 上限下限
  10. 10. 解析学
    1. 10.1. 微分
    2. 10.2. 偏微分
    3. 10.3. 方向微分
    4. 10.4. 全微分
    5. 10.5. 積分
    6. 10.6. ガウス積分
    7. 10.7. 数値微分と解析微分
    8. 10.8. 冪乗の微分
    9. 10.9. 対数の微分
  11. 11. 線形代数
    1. 11.1. 線形性
      1. 11.1.1. 線形性とは
      2. 11.1.2. 線形独立
      3. 11.1.3. 加法性(additivity)
      4. 11.1.4. 斉次性(homogeneity)
    2. 11.2. 座標
    3. 11.3. 定義域と値域
    4. 11.4. ベック作用素
    5. 11.5. 固有値
      1. 11.5.1. 固有ベクトル
      2. 11.5.2. 固有値
      3. 11.5.3. 固有値問題
      4. 11.5.4. 固有方程式
      5. 11.5.5. 固有空間
    6. 11.6. ベクトル
      1. 11.6.1. ベクトル
      2. 11.6.2. ベクトルの大きさ
      3. 11.6.3. 単位ベクトル
      4. 11.6.4. 正射影ベクトル
      5. 11.6.5. 基底ベクトル
      6. 11.6.6. 数ベクトル
      7. 11.6.7. 位置ベクトル
      8. 11.6.8. ベクトル値関数
    7. 11.7. 行列
      1. 11.7.1. 写像
        1. 11.7.1.1. 写像
        2. 11.7.1.2. 線形変換
        3. 11.7.1.3. 線形変換の意味
      2. 11.7.2. 基本的な行列
        1. 11.7.2.1. 単位行列
        2. 11.7.2.2. 零行列
        3. 11.7.2.3. 逆行列
      3. 11.7.3. 対XXX化
        1. 11.7.3.1. 転置行列
        2. 11.7.3.2. 対称行列
        3. 11.7.3.3. 対角行列
        4. 11.7.3.4. 対角行列 vs. 対称行列
        5. 11.7.3.5. 対角化
        6. 11.7.3.6. ジョルダン標準形(準対角化)
      4. 11.7.4. 正XXX行列
        1. 11.7.4.1. 正方行列
        2. 11.7.4.2. 正則行列 (非特異行列)
        3. 11.7.4.3. 正規行列
      5. 11.7.5. 正規直交座標
        1. 11.7.5.1. 正規直交基底
        2. 11.7.5.2. 正規直交系
        3. 11.7.5.3. 直行行列
        4. 11.7.5.4. 直行行列の特徴
      6. 11.7.6. 特異値系
        1. 11.7.6.1. 特異行列
        2. 11.7.6.2. 特異値分解
        3. 11.7.6.3. 固有値分解 vs. 特異値分解
      7. 11.7.7. 複素行列系
        1. 11.7.7.1. 随伴行列 (ダガー行列, 共役転置行列)
        2. 11.7.7.2. エルミート行列
        3. 11.7.7.3. ユニタリ行列
        4. 11.7.7.4. 実数行列と複素数行列の関係
      8. 11.7.8. 三角関数系
        1. 11.7.8.1. ヤコビアン
        2. 11.7.8.2. 回転行列
      9. 11.7.9. その他の行列
        1. 11.7.9.1. 小行列
        2. 11.7.9.2. 長方行列
        3. 11.7.9.3. 表現行列
        4. 11.7.9.4. 階段行列(行階段形)
    8. 11.8. 操作
      1. 11.8.1. 内積と外積
      2. 11.8.2. 色々な積
      3. 11.8.3. ノルム
      4. 11.8.4. トレース
      5. 11.8.5. 次元
      6. 11.8.6. コサイン類似度
      7. 11.8.7. 行列式
      8. 11.8.8. ランク(階数)
      9. 11.8.9. 核(Kernel)と像(Image)
  12. 12. トポロジー
    1. 12.1. 多様体
  13. 13. 統計学
    1. 13.1. 統計学について
    2. 13.2. 3種類の統計学
  14. 14. データ
    1. 14.1. データとは?
    2. 14.2. 質的データのと量的データ
    3. 14.3. データの尺度
    4. 14.4. データの次元
    5. 14.5. データの単位
    6. 14.6. データの型
    7. 14.7. 集約されたデータ
    8. 14.8. データの代表値
    9. 14.9. データの平均
    10. 14.10. データの頻度
    11. 14.11. データと変数
    12. 14.12. 離散変数と連続変数
    13. 14.13. データと集合
    14. 14.14. 有限集合と無限集合
    15. 14.15. データの関係
  15. 15. データ分析
    1. 15.1. データの種類
    2. 15.2. データ分析フロー
  16. 16. 多次元データ
    1. 16.1. 相関と回帰と因果
    2. 16.2. 時系列データの相関
  17. 17. 確率
    1. 17.1. 関数
      1. 17.1.1. 確率密度関数(probability density function、PDF)
      2. 17.1.2. 累積分布関数(cumulative distribution function, CDF)
    2. 17.2. 確率変数と確率分布
    3. 17.3. 離散型と連続型
    4. 17.4. 確率の定義
    5. 17.5. 標本と事象
    6. 17.6. 事象の演算
    7. 17.7. 順列と組み合わせ
    8. 17.8. 確率変数
    9. 17.9. 期待値と分散と標準偏差
    10. 17.10. 確率密度
    11. 17.11. 確率分布
    12. 17.12. 歪度と尖度
    13. 17.13. 母関数
    14. 17.14. モーメント
    15. 17.15. キュラメント
    16. 17.16. チェビシェフの不等式
  18. 18. ベイズ確率
    1. 18.1. ベイズ確率
      1. 18.1.1. 確信度
      2. 18.1.2. ベイジアン
      3. 18.1.3. 主観確率と客観確率
      4. 18.1.4. 事前確率と事後確率
      5. 18.1.5. 規格化(normalization)
      6. 18.1.6. 事後確率と条件付き確率の違い
    2. 18.2. 例
      1. 18.2.1. トランプの例(事前確率と事後確率)
      2. 18.2.2. トランプの例(同時確率と条件付き確率)
      3. 18.2.3. 検査の例
    3. 18.3. ベイズの定理
      1. 18.3.1. ベイズの定理
      2. 18.3.2. 同時確率
      3. 18.3.3. 条件付き確率
      4. 18.3.4. 周辺確率
    4. 18.4. 最尤法
      1. 18.4.1. 最尤原理
      2. 18.4.2. 最尤推定量
      3. 18.4.3. 二項分布の最尤推定量
      4. 18.4.4. 尤度関数、対数尤度関数、スコア関数
  19. 19. 確率分布
    1. 19.1. 離散型分布
      1. 19.1.1. 離散一様分布
      2. 19.1.2. ベルヌーイ分布
      3. 19.1.3. 二項分布
      4. 19.1.4. 幾何学分布
      5. 19.1.5. 超幾何学分布
      6. 19.1.6. ポアソン分布
      7. 19.1.7. 負の二項分布
    2. 19.2. 連続型分布
      1. 19.2.1. 連続一様分布
      2. 19.2.2. ベータ分布
      3. 19.2.3. コーシー分布
      4. 19.2.4. 対数正規分布
      5. 19.2.5. 指数分布
      6. 19.2.6. 正規分布
        1. 19.2.6.1. 正規分布
        2. 19.2.6.2. 正規分布の式の意味
        3. 19.2.6.3. 正規分布と中心極限定理
      7. 19.2.7. ガンマ分布
      8. 19.2.8. グンベル分布
      9. 19.2.9. グンベル極値分布
      10. 19.2.10. パレート分布
      11. 19.2.11. ワイブル分布
    3. 19.3. 標本分布
      1. 19.3.1. F分布
      2. 19.3.2. T分布
  20. 20. 多次元確率分布
    1. 20.1. 条件付き確率分布
    2. 20.2. 共分散
    3. 20.3. 独立と無相関
    4. 20.4. 同時確率分布
    5. 20.5. 周辺確率分布
    6. 20.6. 多次元正規分布
    7. 20.7. 正規分布の再生性
  21. 21. 推測統計
    1. 21.1. 目的
    2. 21.2. 基本用語
      1. 21.2.1. 母集団
      2. 21.2.2. 標本
      3. 21.2.3. 標本平均
      4. 21.2.4. 母数
      5. 21.2.5. 抽出
      6. 21.2.6. 分布
      7. 21.2.7. 分散、標準偏差
      8. 21.2.8. 平均、分散、尖度、尖度
      9. 21.2.9. 統計量(MSEなど)
      10. 21.2.10. パラメトリック
    3. 21.3. 推測統計の有名な法則
      1. 21.3.1. 独立同分布
      2. 21.3.2. 大数の法則/平均への回帰
      3. 21.3.3. 中心極限定理/ゴルトンボード
      4. 21.3.4. 漸近的
    4. 21.4. 誤差
    5. 21.5. カイ二乗分布
    6. 21.6. T分布
    7. 21.7. F分布
    8. 21.8. 自由度
    9. 21.9. 標準正規分布
    10. 21.10. 推定
      1. 21.10.1. 推定量
      2. 21.10.2. 点推定
      3. 21.10.3. 区間推定
      4. 21.10.4. 推定フロー
      5. 21.10.5. 推定の基準
    11. 21.11. 仮説検定
      1. 21.11.1. 仮説検定
      2. 21.11.2. T検定
      3. 21.11.3. $\chi^2$検定
      4. 21.11.4. ウェルチ検定
  22. 22. 回帰
    1. 22.1. 一般化線型回帰
    2. 22.2. リンク関数
    3. 22.3. 一般線形化モデル
    4. 22.4. 一般線形化モデル
    5. 22.5. ロジスティック回帰
    6. 22.6. サポートベクターマシン回帰
    7. 22.7. ロジット
  23. 23. 機械学習
    1. 23.1. 前処理
      1. 23.1.1. train/validate/test
      2. 23.1.2. データ分布の解釈
      3. 23.1.3. 数値データ
      4. 23.1.4. カテゴリーデータ (ラベル値とone-hotベクトル)
      5. 23.1.5. テキストデータ
      6. 23.1.6. 日付・時間データ
      7. 23.1.7. 不均衡データ
        1. 23.1.7.1. Oversampling
        2. 23.1.7.2. Undersampling
      8. 23.1.8. 欠損値の処理
        1. 23.1.8.1. 欠損値の発生理由
        2. 23.1.8.2. リストワイズ法
        3. 23.1.8.3. ペアワイズ法
        4. 23.1.8.4. 平均代入法
      9. 23.1.9. データオーギュメンテーション
        1. 23.1.9.1. mixup
    2. 23.2. 学習
      1. 23.2.1. 目的
      2. 23.2.2. 学習の種類
      3. 23.2.3. アルゴリズムの選択フロー
      4. 23.2.4. 転移学習とファインチューニング
      5. 23.2.5. 確率的勾配降下法
      6. 23.2.6. ミニバッチ学習
      7. 23.2.7. 線形分離可能性
      8. 23.2.8. 交差検証
      9. 23.2.9. ハイパーパラメータ
      10. 23.2.10. inner-class/intra-class
      11. 23.2.11. The 1 cycle policy
      12. 23.2.12. 半教師あり学習
    3. 23.3. 学習方法
      1. 23.3.1. 教師あり学習
        1. 23.3.1.1. 回帰
        2. 23.3.1.2. 分類
      2. 23.3.2. 教師なし学習
        1. 23.3.2.1. クラスタリング
        2. 23.3.2.2. 次元削減
      3. 23.3.3. 半教師あり学習
      4. 23.3.4. 強化学習
    4. 23.4. 教師ありのアルゴリズム
      1. 23.4.1. 損失関数型
        1. 23.4.1.1. ロジスティクス回帰
        2. 23.4.1.2. ニュートラルネットワーク
        3. 23.4.1.3. SVM
        4. 23.4.1.4. 線形分離可能性
      2. 23.4.2. 決定木型
        1. 23.4.2.1. 決定木
        2. 23.4.2.2. ランダムフォレスト
        3. 23.4.2.3. XGBoost
      3. 23.4.3. 損失型 vs 決定木
    5. 23.5. 誤算関数
      1. 23.5.1. 誤差関数
      2. 23.5.2. 誤差関数の分類
      3. 23.5.3. 分類誤算関数
        1. 23.5.3.1. クロスエントロピー誤差, log loss
        2. 23.5.3.2. ソフトマックス関数
        3. 23.5.3.3. Softmax Loss
        4. 23.5.3.4. Center Loss
        5. 23.5.3.5. AM Softmax Loss
        6. 23.5.3.6. Focal loss
        7. 23.5.3.7. Exponential loss
        8. 23.5.3.8. Hinge loss
        9. 23.5.3.9. KL Divergence/Relative Entropy
        10. 23.5.3.10. SoftPlus
      4. 23.5.4. 回帰誤算関数
        1. 23.5.4.1. MSE, Quadratic loss, L2 Loss, 平均二乗誤差、分散
        2. 23.5.4.2. SSE, 二乗和誤差
        3. 23.5.4.3. MAE, L1 Loss, 平均絶対誤差
        4. 23.5.4.4. RMSE, 平均二乗誤差平方根
        5. 23.5.4.5. RMS, 二乗平均平方根、標準誤差
        6. 23.5.4.6. RSS, 残差平方和/誤差二乗和
        7. 23.5.4.7. SRSS, 二乗和平方根
        8. 23.5.4.8. Hurber loss, Smooth Mean Absolute Error
        9. 23.5.4.9. Log-cosh loss
        10. 23.5.4.10. Quantile loss
    6. 23.6. 活性化関数
      1. 23.6.1. 活性化関数
      2. 23.6.2. シグモイド関数
      3. 23.6.3. ランプ関数
      4. 23.6.4. Tanh
      5. 23.6.5. ロジスティック関数
      6. 23.6.6. ステップ関数
      7. 23.6.7. 恒常関数
      8. 23.6.8. その他の関数
    7. 23.7. 最適化
      1. 23.7.1. ドロップアウト
      2. 23.7.2. アダム
      3. 23.7.3. 最適化手法
      4. 23.7.4. 正則化 (L1, L2)
      5. 23.7.5. 正規化
    8. 23.8. 問題
      1. 23.8.1. 勾配消失
      2. 23.8.2. 過学習
      3. 23.8.3. 次元の呪い
      4. 23.8.4. 不均衡データ
    9. 23.9. 次元削減
      1. 23.9.1. 次元削減とは
      2. 23.9.2. 埋め込み空間
      3. 23.9.3. PCA(次元削減)
      4. 23.9.4. SNE
      5. 23.9.5. t-SNE(ティースニー)
    10. 23.10. 特徴選択
      1. 23.10.1. 特徴選択
      2. 23.10.2. フィルタ法 (filter)
      3. 23.10.3. ラッパー法 (wrapper)
      4. 23.10.4. 組み込み法 (embedded)
    11. 23.11. バリデーション手法
      1. 23.11.1. ホールドアウト検証
      2. 23.11.2. 交差検証
    12. 23.12. ハイパーパラメーター最適化手法
      1. 23.12.1. グリッドサーチ
      2. 23.12.2. ランダムサーチ
      3. 23.12.3. ベイジアン最適化
    13. 23.13. 精度評価他
      1. 23.13.1. 精度・適合率・再現率・F値
      2. 23.13.2. PR曲線・ROC曲線
      3. 23.13.3. 重要度
    14. 23.14. その他
      1. 23.14.1. 醜いアヒルの子の定理
      2. 23.14.2. No-free-lunch theorem (NFLT)
      3. 23.14.3. Toy Problem
      4. 23.14.4. 識別モデルと生成モデル
      5. 23.14.5. 多様体仮説
      6. 23.14.6. GIGO
      7. 23.14.7. 料理と機械学習
    15. 23.15. フォーマット
      1. 23.15.1. ONNX
      2. 23.15.2. PMML
      3. 23.15.3. PFA
    16. 23.16. 高速化手法
      1. 23.16.1. FP16
  24. 24. 距離学習
    1. 24.1. 距離
    2. 24.2. 距離学習
    3. 24.3. Siamese Network/Contrastive Loss
    4. 24.4. Triplet Network/Triplet Loss
    5. 24.5. L2 Softmax Network
    6. 24.6. 距離の公理
    7. 24.7. 距離
      1. 24.7.1. ユークリッド距離
      2. 24.7.2. マハラノビス距離
      3. 24.7.3. マンハッタン距離
      4. 24.7.4. チェビシフ距離
      5. 24.7.5. ミンコフスキー距離
  25. 25. スパースモデリング
    1. 25.1. スパースモデリング
    2. 25.2. スパース化
  26. 26. ニューラルネットワーク
    1. 26.1. ネットワーク構造
      1. 26.1.1. 多層パーセプトロン
      2. 26.1.2. ニューラルネットワーク
      3. 26.1.3. GAN
      4. 26.1.4. U-NET
      5. 26.1.5. オートエンコーダー
      6. 26.1.6. LSTM
      7. 26.1.7. ResNet
      8. 26.1.8. グラフ
      9. 26.1.9. Grad-CAM
      10. 26.1.10. VAE
  27. 27. SVM
    1. 27.1. SVM
    2. 27.2. サポートベクトル
    3. 27.3. VC次元
    4. 27.4. カーネル
    5. 27.5. ガウシアンカーネル(RBF)
    6. 27.6. カーネルトリック
  28. 28. コンピュータービジョン(CV)
    1. 28.1. CVの目的
    2. 28.2. CNN
      1. 28.2.1. CNNの用語
      2. 28.2.2. 畳み込みの計算
      3. 28.2.3. プーリングの計算
      4. 28.2.4. Global Average Pooling
    3. 28.3. 用語
      1. 28.3.1. ROI/Blob/スパーピクセル/有効視野/FOV
      2. 28.3.2. global feature/local feature
      3. 28.3.3. 標本化・量子化・符号化
    4. 28.4. 1stgのCNN
      1. 28.4.1. AlexNet
      2. 28.4.2. ZFNet
      3. 28.4.3. VGG
      4. 28.4.4. ResNet
    5. 28.5. RCNN系
      1. 28.5.1. R-CNN
      2. 28.5.2. Selective Search
      3. 28.5.3. PRN (Regional Proposal Network)
      4. 28.5.4. Fast R-CNN (Detector)
      5. 28.5.5. Faster R-CNN (CNN + PRN + Fast R-CNN)
      6. 28.5.6. Mask R-CNN (Faster F-CNN + Mask)
    6. 28.6. カメラ
      1. 28.6.1. カメラ行列
      2. 28.6.2. ワールド座標
      3. 28.6.3. キャリビュレーション
    7. 28.7. 残差ネットワーク
    8. 28.8. 前処理
    9. 28.9. 相互相関関数
    10. 28.10. 画質評価
      1. 28.10.1. MSE
      2. 28.10.2. PSNR
      3. 28.10.3. SSIM
      4. 28.10.4. その他
    11. 28.11. 精度評価
      1. 28.11.1. 混同行列
      2. 28.11.2. 混同行列の例(分類)
      3. 28.11.3. 混同行列の例(物体検知)
      4. 28.11.4. AUC
      5. 28.11.5. ROC曲線とPR曲線
    12. 28.12. セグメンテーション
      1. 28.12.1. セマンティック・セグメンテーションとインスタンス・セグメンテーションの違い
      2. 28.12.2. U-NETとMask R-CNNの違い
    13. 28.13. オブジェクトトラッキング(SOT, MOT)
      1. 28.13.1. Online VS. Batch
      2. 28.13.2. MOTモデルの変遷
      3. 28.13.3. SOT vs. MOT
      4. 28.13.4. Track, ID Switch, Misses
      5. 28.13.5. MOTA, MOTP, FAF, MT, ML, FP, FN, ID sw, Frag
      6. 28.13.6. IDP, IDR, IDF1
      7. 28.13.7. JDEモデル
      8. 28.13.8. ROI Projection, ROI-Pool, ROI-Align
      9. 28.13.9. カルマンフィルター
      10. 28.13.10. 割当問題とハンガリアン法
      11. 28.13.11. Tracklet 特徴量
      12. 28.13.12. 費用最小フロー問題
      13. 28.13.13. K最短経路ルーティング問題
      14. 28.13.14. Bipartite-Matching
  29. 29. 情報理論
    1. 29.1. 情報
    2. 29.2. 自己情報量
    3. 29.3. 自己情報量の加法性(logの理由)
    4. 29.4. エントロピー
    5. 29.5. KLダイバージェンス(KL情報量)
    6. 29.6. 相互情報量
    7. 29.7. 交差エントロピー
  30. 30. 木
    1. 30.1. 決定木
      1. 30.1.1. 決定木とは
      2. 30.1.2. 決定木のアルゴリズム比較
      3. 30.1.3. 決定木とベイジアンネットワーク
      4. 30.1.4. 決定木の例 (CART)
    2. 30.2. 不純度
      1. 30.2.1. 不純度と情報利得
      2. 30.2.2. 不純度の算出
      3. 30.2.3. ジニ不純度
    3. 30.3. 決定木の種類
      1. 30.3.1. 分類木
      2. 30.3.2. 回帰木
      3. 30.3.3. ランダムフォレスト
      4. 30.3.4. 勾配ブースティング木
    4. 30.4. アンサンブル学習
      1. 30.4.1. アンサンブルとは?
      2. 30.4.2. バイアスとバリアンスのトレードオフ
      3. 30.4.3. ブースティング
      4. 30.4.4. バギング
      5. 30.4.5. スタッキング
  31. 31. 時系列
    1. 31.1. AR,MR,(S)ARIMAモデル
    2. 31.2. 状態空間モデル
  32. 32. クラスタリング
    1. 32.1. K平均法
    2. 32.2. K近傍法
    3. 32.3. 線形判別分析法
    4. 32.4. 階層的クラスタリング
    5. 32.5. ガウシアンカーネル
  33. 33. 強化学習
    1. 33.1. MDP
    2. 33.2. Q学習
    3. 33.3. DQN
  34. 34. 自然言語処理
    1. 34.1. nlp
    2. 34.2. 分布仮説
    3. 34.3. カウントベースと推論ベース
    4. 34.4. Word2Vec
    5. 34.5. CBOW
    6. 34.6. skip-gram
  35. 35. 組み合わせ最適化
  36. 36. ベイズ最適化
  37. 37. 効果検証
  38. 38. 群論
    1. 38.1. 可換
  39. 39. 圏論
    1. 39.1. 計算機科学
      1. 39.1.1. 共変性と反変性
  40. 40. 非ユークリッド幾何学
  41. 41. その他
    1. 41.1. 足し算の抽象化
    2. 41.2. 畳み込み
    3. 41.3. カリー化
    4. 41.4. フーリエ変換
    5. 41.5. フーリエ級数
    6. 41.6. テイラー展開
    7. 41.7. マクローリン展開
    8. 41.8. ラジアン
    9. 41.9. 底の変換
    10. 41.10. 三角関数
    11. 41.11. 座標系
    12. 41.12. 双曲線関数
    13. 41.13. ランダウの記法
    14. 41.14. イプシロンデルタ論法
    15. 41.15. オイラーの公式
    16. 41.16. 動径関数
  42. 42. References

Deepbook

No-free-lunch theorem (NFLT)