AI

AI/データサイエンス

【畳み込み/CNN】全結合のデメリット

CNNとは何か、畳み込みとは何かを解説する前準備として、全結合によるDNNのデメリットを説明します。
AI/データサイエンス

【機械学習】ロジスティック回帰とは何か

今回は機械学習の中の教師あり学習の分野における、ロジスティック回帰について解説します。ロジスティック回帰というのは、分類問題における確率を予測する統計手法です。分類問題には2値分類と多値分類がありますが、ロジスティック回帰は通常は2値分類に適用されます。2値分類というのは答えが2つの分類問題です。
AI/データサイエンス

【データサイエンス】ROC曲線とAUCとは何か

前回は検査や予測の精度に関する様々な概念や指標について説明しました。ROC曲線とAUCも、検査や予測の精度に関する指標の1つです。今回は、前回紹介した内容をベースとして、縦軸に感度、横軸に偽陽性率を取るグラフであるROC曲線と、ROC曲線からAUCを求める方法を説明します。
スポンサーリンク
AI/データサイエンス

【データサイエンス】正解率・適合率・再現率・F値とは何か

一言で精度と言っても、精度の測り方にはいくつか種類があります。今回は正解率・適合率・再現率・F値などについて説明します。
AI/データサイエンス

【機械学習】Optimizer(最適化関数) – SGD、Momentum、AdaGrad、RMSProp、Adamとは何か

過去の記事で勾配降下法では大域的最適解に辿り着けない問題を紹介しました。今回はその解決手法であるOptimizer(最適化関数)について、SGD、Momentum、AdaGrad、RMSProp、Adamを例に解説します。
AI/データサイエンス

【ディープラーニング】事前学習・ファインチューニング・転移学習とは何か、どう違うのか

事前学習(Pretraining)、ファインチューニング(Finetuning)、そして転移学習(Transfer Learning)という技術が何であるか、そしてそれぞれの違いは何なのかを解説していきます。
AI/データサイエンス

【ディープラーニング】ChatGPTの”GPT”とは何か? – Generative Pretrained Transformer

GPT(Generative Pretrained Transforme)はOpenAIが2018年に公開した自然言語処理(NLP)のモデルです。GPTは事前学習済のTransformerベースのモデルで、ファインチューニングすることで生成タスクに用いることができます。
AI/データサイエンス

【ディープラーニング】Transformerとは何か – ChatGPTの元ネタを解説

ChatGPTが世界中で話題になっています。ChatGPTの"GPT"はGenerative Pre-trained Transformerです。今回はChatGPTの元ネタであるTransformerについて解説します。
AI/データサイエンス

【機械学習】バッチ学習とオンライン学習 – バッチ勾配降下法と確率的勾配降下法の違いは何か?

過去の記事で勾配降下法について解説しました。今回は、バッチ学習とオンライン学習を説明した上で、確率的勾配降下法、バッチ勾配降下法、ミニバッチ勾配降下法を解説し、さらに関連事項としてバッチ正規化についても説明します。
AI/データサイエンス

【Transformer】Positional Encodingを徹底解説

2022年末にリリースされたOpenAIのサービスChatGPTが世界中で話題になっています。ChatGPTはGPT-3.5という言語モデルを使ったサービスですが、GPTというのはGenerative Pre-trained Transfo...
スポンサーリンク