Transformerの正規化層を変えた場合,認識性能が向上するのかを実験しました.
Transformer の記事一覧
-
-
手話認識入門 補足 - 深掘りTransformer4: 欠損値の補間は認識性能を向上させるのか?
作成日: 2024年07月20日(土) 00:00
最終更新日: 2024年09月18日(水) 09:55
追跡点の欠損値を補間した場合,認識性能が向上するのかを実験しました.
-
手話認識入門 補足 - 深掘りTransformer2: Multi-head self-attentionの処理について
作成日: 2024年04月11日(木) 00:00
最終更新日: 2024年09月18日(水) 09:47
Transformerの補足説明として,Multi-head self attentionの処理について紹介します.
-
手話認識入門 補足 - 深掘りTransformer1: Positional encodingの処理について
作成日: 2024年04月05日(金) 00:00
最終更新日: 2024年09月18日(水) 09:47
Transformerの補足説明として,Positional encodingの処理について紹介します.
-
手話認識入門9- Transformerを用いた孤立手話単語認識モデル
作成日: 2024年03月22日(金) 00:00
最終更新日: 2024年09月18日(水) 10:09
Transfomer (Encoderのみ) を用いた孤立手話単語認識モデルを紹介します.