Transformer の補足説明として,Multi-head cross attention の処理について紹介します.

Transformer の補足説明として,Multi-head cross attention の処理について紹介します.
RNN Encoder-Decoderを用いた連続指文字認識モデルを紹介します.題材は連続指文字認識ですが,手法は連続手話単語認識や手話翻訳にも応用可能です.
Encoder-Decoder を用いた時系列認識の処理について説明します.今回はモデルではなく学習ループなどの全体的な処理の実装例を示します.
Encoder-Decoder を用いて Loss 計算を行う際のハマりどころについて説明します.
時系列認識の評価によく用いられる,単語誤り率 (Word error rate) について簡単に説明します.
2024年11月 (1) |
2024年10月 (3) |
2024年09月 (7) |
2024年08月 (4) |
2024年07月 (4) |
2024年06月 (3) |
2024年05月 (4) |
2024年04月 (2) |
2024年03月 (5) |
2024年02月 (3) |
2024年01月 (5) |
2023年12月 (2) |