AI/データサイエンス 【畳み込み/CNN】全結合のデメリット CNNとは何か、畳み込みとは何かを解説する前準備として、全結合によるDNNのデメリットを説明します。 2023.12.12 AI/データサイエンス
AI/データサイエンス 【ディープラーニング】事前学習・ファインチューニング・転移学習とは何か、どう違うのか 事前学習(Pretraining)、ファインチューニング(Finetuning)、そして転移学習(Transfer Learning)という技術が何であるか、そしてそれぞれの違いは何なのかを解説していきます。 2023.10.03 AI/データサイエンス
AI/データサイエンス 【ディープラーニング】ChatGPTの”GPT”とは何か? – Generative Pretrained Transformer GPT(Generative Pretrained Transforme)はOpenAIが2018年に公開した自然言語処理(NLP)のモデルです。GPTは事前学習済のTransformerベースのモデルで、ファインチューニングすることで生成タスクに用いることができます。 2023.09.12 AI/データサイエンス
AI/データサイエンス 【ディープラーニング】Transformerとは何か – ChatGPTの元ネタを解説 ChatGPTが世界中で話題になっています。ChatGPTの"GPT"はGenerative Pre-trained Transformerです。今回はChatGPTの元ネタであるTransformerについて解説します。 2023.09.05 AI/データサイエンス
AI/データサイエンス 【Transformer】Positional Encodingを徹底解説 2022年末にリリースされたOpenAIのサービスChatGPTが世界中で話題になっています。ChatGPTはGPT-3.5という言語モデルを使ったサービスですが、GPTというのはGenerative Pre-trained Transfo... 2023.08.22 AI/データサイエンス
AI/データサイエンス 【Transformer】Multi-Head Attentionを徹底解説 今後、ChatGPTの元ネタであるTransformerについて解説記事を掲載しますが、今回はその準備としてMulti-Head Attentionを解説します。 2023.08.08 AI/データサイエンス
AI/データサイエンス 【ディープラーニング】LSTM(Long Sort-Term Memory)とは何か 今回はRNNの一種であるLSTM(Long Short-Term Memory)について解説します。LSTM(Long Short-Term Memory)は文章・音声・時系列のようなシーケンシャルなデータの長期的な依存関係を扱うように設計されています。 2023.06.27 AI/データサイエンス
AI/データサイエンス 【ディープラーニング】RNN(リカレントニューラルネットワーク)とは何か 今回は、シーケンシャルなデータに対して用いられるAIであるRNN(Recurrent Neural Network, 再帰的ニューラルネットワーク)について解説します。 2023.06.13 AI/データサイエンス
AI/データサイエンス 【ディープラーニング】誤差逆伝播法(バックプロパゲーション)とは何か 今回はディープラーニングにおいては重みを更新する際に用いられる誤差逆伝播法(バックプロパゲーション)という手法について解説します。前回までに説明したニューラルネットワーク・パーセプトロン・活性化関数については他の記事を参照ください。 2023.05.16 AI/データサイエンス