確率的勾配降下法

AI/データサイエンス

【機械学習】Optimizer(最適化関数) – SGD、Momentum、AdaGrad、RMSProp、Adamとは何か

過去の記事で勾配降下法では大域的最適解に辿り着けない問題を紹介しました。今回はその解決手法であるOptimizer(最適化関数)について、SGD、Momentum、AdaGrad、RMSProp、Adamを例に解説します。
AI/データサイエンス

【機械学習】バッチ学習とオンライン学習 – バッチ勾配降下法と確率的勾配降下法の違いは何か?

過去の記事で勾配降下法について解説しました。今回は、バッチ学習とオンライン学習を説明した上で、確率的勾配降下法、バッチ勾配降下法、ミニバッチ勾配降下法を解説し、さらに関連事項としてバッチ正規化についても説明します。
スポンサーリンク