GIAT: 地質学的知識を組み込んだ注意機構を持つリソロジー識別用トランスフォーマー

arXiv cs.LG / 2026/3/11

Ideas & Deep AnalysisModels & Research

要点

  • GIATは、ウェルログからのリソロジー識別のために設計された新しいトランスフォーマーモデルで、地質学的知識を注意機構に直接統合しています。
  • カテゴリ別シーケンス相関フィルターを用いた地質情報に基づく注意バイアスを導入し、モデルの予測を地質学的に一貫したパターンへと導きます。
  • GIATは、難易度の高いデータセットで95.4%までの最先端の精度を達成し、従来モデルを凌駕する性能を示しました。
  • また、入力摂動に対する解釈可能性とロバスト性も向上し、地質学的応用における信頼性を高めています。
  • このアプローチは、ドメイン知識とデータ駆動型手法を融合することで、地球科学におけるより正確で信頼性の高い、解釈可能な深層学習フレームワークへの重要な一歩を示しています。

コンピュータサイエンス > 機械学習

arXiv:2603.09165 (cs)
[2026年3月10日 投稿]

タイトル:GIAT: 地質学的情報に基づく注意トランスフォーマーによる岩相同定

Jie Li および他2名の著者による「GIAT: 地質学的情報に基づく注意トランスフォーマーによる岩相同定」という題名の論文のPDFを表示
PDFを表示
要旨:坑井ログからの正確な岩相同定は、地下の資源評価にとって極めて重要である。Transformerベースのモデルは系列モデリングにおいて優れた性能を発揮する一方で、その「ブラックボックス」的な性質と地質学的ガイダンスの欠如は、性能と信頼性を制限する。これらの制約を克服するため、本書簡では、データ駆動の地質学的事前知識をTransformerの注意機構へ深く融合する、新しい枠組みである「地質学的情報に基づく注意トランスフォーマー(GIAT)」を提案する。GIATの中核は、新しい注意バイアス付与メカニズムである。私たちは、カテゴリ別系列相関(CSC)フィルタを流用して、地質学的に情報付けされた関係行列を生成し、それを自己注意計算に注入することで、モデルが地質学的に整合したパターンへ明示的に導かれるようにする。2つの難しいデータセットにおいて、GIATは精度最大95.4%で最先端の性能を達成し、既存モデルを大きく上回った。さらに重要なことに、GIATは入力擾乱下で優れた解釈忠実性を示し、地質学的に整合した予測を生成する。私たちの研究は、地球科学用途向けの、より正確で信頼でき、かつ解釈可能な深層学習モデルを構築するための新しいパラダイムを提示する。
対象分野: 機械学習 (cs.LG); 人工知能 (cs.AI)
引用方法: arXiv:2603.09165 [cs.LG]
  (または arXiv:2603.09165v1 [cs.LG](この版の場合))
  https://doi.org/10.48550/arXiv.2603.09165
詳細を学ぶためにフォーカス
DataCite による arXiv 発行 DOI

投稿履歴

発信者: Qishun Yang [メールを表示]
[v1] 2026年3月10日(火) 04:02:57 UTC (729 KB)
フルテキストリンク:

論文へのアクセス:

    Jie Li および他2名の著者による「GIAT: 地質学的情報に基づく注意トランスフォーマーによる岩相同定」という題名の論文のPDFを表示
  • PDFを表示
現在の閲覧コンテキスト:
cs.LG
次の条件で閲覧を切り替え:

参考文献 & 引用

BibTeX引用をエクスポート 読み込み中...

BibTeX形式の引用

×
データ提供元:

ブックマーク

BibSonomyロゴ Redditロゴ
書誌ツール

書誌および引用ツール

書誌エクスプローラー切り替え
書誌エクスプローラー (エクスプローラーとは?)
Connected Papers切り替え
Connected Papers (Connected Papersとは?)
Litmaps切り替え
Litmaps (Litmapsとは?)
scite.ai切り替え
scite スマート引用 (スマート引用とは?)
コード、データ、メディア

この記事に関連付けられたコード、データ、メディア

alphaXiv切り替え
alphaXiv (alphaXivとは?)
コードへのリンク切り替え
論文向けCatalyzeXコードファインダー (CatalyzeXとは?)
DagsHub切り替え
DagsHub (DagsHubとは?)
GotitPub切り替え
Huggingface トグル
コードへのリンク トグル
ScienceCast トグル
デモ

デモ

Replicate トグル
Spaces トグル
Hugging Face Spaces (Spacesとは何ですか?)
Spaces トグル
関連論文

レコメンダーおよび検索ツール

インフルエンス・フラワーへのリンク
Core レコメンダー トグル
CORE レコメンダー (COREとは何ですか?)
IArxiv レコメンダー トグル
IArxiv レコメンダー (IArxivとは何ですか?)
arXivLabs について

arXivLabs:コミュニティの協力者とともに行う実験的プロジェクト

arXivLabs は、協力者が当社の Web サイト上で新しい arXiv の機能を直接開発し、共有できるようにする枠組みです。

arXivLabs に携わる個人および組織は、オープン性、コミュニティ、卓越性、ユーザーデータのプライバシーという当社の価値観を受け入れ、これらに同意しています。arXiv はこれらの価値観に取り組んでおり、それに従うパートナーとのみ連携します。

arXiv のコミュニティにとって価値のあるプロジェクトのアイデアはありますか? arXivLabs の詳細を学ぶ