AI Navigate

transformer!! ~BERT編~

Qiita / 3/21/2026

💬 OpinionModels & Research

Key Points

  • BERTはtransformerのencoderをベースとしたアーキテクチャで、分類タスクに強い特徴を持つ。
  • Cross Encoderは文章を連結して文脈を跨ぐ情報を捉える。
  • 入力形式の例として [CLS]文章A[SEP]文章B[SEP] の組み合わせが説明されている。
  • 本記事は初心者向けの解説で、概念の紹介が中心で実装の詳細は最小限。
BERTは、transformerのencoderをベースにしたアーキテクチャです encoderベースのため、分類タスクに強いという特徴を持ちます Cross Encoder 以下のように文章を連結させることで、文をまたいだ文脈を捉えるができます [CLS]文章A[SE...

Continue reading this article on the original site.

Read original →