AI/データサイエンス 【機械学習】ロジスティック回帰とは何か 今回は機械学習の中の教師あり学習の分野における、ロジスティック回帰について解説します。ロジスティック回帰というのは、分類問題における確率を予測する統計手法です。分類問題には2値分類と多値分類がありますが、ロジスティック回帰は通常は2値分類に適用されます。2値分類というのは答えが2つの分類問題です。 2023.11.28 AI/データサイエンス
AI/データサイエンス 【機械学習】Optimizer(最適化関数) – SGD、Momentum、AdaGrad、RMSProp、Adamとは何か 過去の記事で勾配降下法では大域的最適解に辿り着けない問題を紹介しました。今回はその解決手法であるOptimizer(最適化関数)について、SGD、Momentum、AdaGrad、RMSProp、Adamを例に解説します。 2023.10.17 AI/データサイエンス
AI/データサイエンス 【機械学習】バッチ学習とオンライン学習 – バッチ勾配降下法と確率的勾配降下法の違いは何か? 過去の記事で勾配降下法について解説しました。今回は、バッチ学習とオンライン学習を説明した上で、確率的勾配降下法、バッチ勾配降下法、ミニバッチ勾配降下法を解説し、さらに関連事項としてバッチ正規化についても説明します。 2023.09.01 AI/データサイエンス
AI/データサイエンス 【機械学習】勾配降下法の問題 今回の記事では、勾配降下法の問題について説明します。勾配降下法の問題としては、局所最適解に陥る問題と、勾配消失問題が挙げられます。 2022.05.15 AI/データサイエンス
AI/データサイエンス 【機械学習】勾配降下法とは何か 今回は勾配降下法について説明します。勾配降下法とは、機械学習のモデルにおいて損失関数を最小とするような最適なパラメータを設定するためのアルゴリズムです。 2022.04.18 AI/データサイエンス
AI/データサイエンス 【機械学習】損失関数 機械学習ではいかにして最適なパラメータ(w)を見つけるかが重要です。今回は最適なパラメータを設定するために理解が不可欠な損失関数(=誤差関数)について説明します。 2022.03.10 AI/データサイエンス