seq2seq

AI/データサイエンス

【ディープラーニング】Attention機構とは何か – GPTの元となったTransformerの構成要素

ディープラーニングにおけるアテンション機構とは、系列データ処理において、入力データの一部に選択的に着目するための技術を指します。ここでいう"入力の一部に着目する"というのは、例えば英仏翻訳タスクにおいてそれぞれの単語を訳す時にどの単語をどのくらい参照して翻訳するかを明示しています。
AI/データサイエンス

【ディープラーニング】seq2seq 言語モデル (エンコーダ・デコーダモデル)とは何か

eq2seq 言語モデル(sequence-to-sequence language model)は、機械翻訳、要約、対話生成などの自然言語処理タスクで使用されるディープラーニングモデルの一種です。その名の通り、ある系列データ(sequence)を別の系列データに変更します。
スポンサーリンク