AI Navigate

transformer!! ~BERT編~

Qiita / 2026/3/21

💬 オピニオンModels & Research

要点

  • BERTはtransformerのencoderをベースとしたアーキテクチャで、分類タスクに強い特徴を持つ。
  • Cross Encoderは文章を連結して文脈を跨ぐ情報を捉える。
  • 入力形式の例として [CLS]文章A[SEP]文章B[SEP] の組み合わせが説明されている。
  • 本記事は初心者向けの解説で、概念の紹介が中心で実装の詳細は最小限。
BERTは、transformerのencoderをベースにしたアーキテクチャです encoderベースのため、分類タスクに強いという特徴を持ちます Cross Encoder 以下のように文章を連結させることで、文をまたいだ文脈を捉えるができます [CLS]文章A[SE...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →