transformer!! ~BERT編~
Qiita / 2026/3/21
💬 オピニオンModels & Research
要点
- BERTはtransformerのencoderをベースとしたアーキテクチャで、分類タスクに強い特徴を持つ。
- Cross Encoderは文章を連結して文脈を跨ぐ情報を捉える。
- 入力形式の例として [CLS]文章A[SEP]文章B[SEP] の組み合わせが説明されている。
- 本記事は初心者向けの解説で、概念の紹介が中心で実装の詳細は最小限。
BERTは、transformerのencoderをベースにしたアーキテクチャです
encoderベースのため、分類タスクに強いという特徴を持ちます
Cross Encoder
以下のように文章を連結させることで、文をまたいだ文脈を捉えるができます
[CLS]文章A[SE...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →