オンライン有害言語を検出するための効率的なハイブリッド深層学習アプローチ
arXiv cs.CL / 2026/3/12
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、BERT、CNN、LSTMを組み合わせ、ReLU活性化関数を用いたハイブリッド深層学習モデルを提案し、YouTubeコメント、オンラインフォーラム、ダークウェブ投稿を含む複数のプラットフォームで有害な言語を検出する。
- 検出を回避するために用いられる難読化された語句や符号化表現に対処し、多様な内容に対して堅牢な性能を目指す。
- 実世界の不均衡データセット(有害77,620件、非有害272,214件、比率1:3.5)を用い、Precision、Recall、Accuracy、F1スコア、AUCなどの指標で約99%の性能を報告している。
- 意味・文脈・逐次的パターンを捉えることで、オンライン環境で一般的な高度に偏ったデータに対する検出性能を向上させる。
- 実世界での展開を見据えたモデレーションツールの向上とクロスプラットフォーム適用の可能性を示唆する一方で、計算コスト、バイアス、プライバシーといった要素についてはさらなる検討が必要である。
要旨:デジタル時代はソーシャルメディアとオンラインフォーラムを拡大させ、世界の人口のおよそ45%に自由な表現を可能にしている。しかし一方で、オンライン上の嫌がらせ、いじめ、ヘイトスピーチ、毒性のあるコメントなどの有害な行為を、ソーシャルネットワーク、メッセージングアプリ、ゲームコミュニティ全体で助長している。研究によると、親の65%がオンライン上の敵対的な挙動を目撃しており、モバイルゲームを利用する思春期の子どもの3分の1がいじめを経験している。日々、表層ウェブだけでなくダークウェブのフォーラム内でも大量の有害コンテンツが生成・共有されている。有害なコメントの作成者は、検出を回避し意図を隠すために特定の語句や符号化された表現を用いることが多い。これらの課題に対処するため、BERT、CNN、LSTMのアーキテクチャをReLU活性化関数と組み合わせたハイブリッド深層学習モデルを提案し、YouTubeコメント、オンラインフォーラムの議論、ダークウェブ投稿を含む複数のオンラインプラットフォームで有害言語を検出する。モデルは、多様で不均衡なデータセット(有害77,620件、非有害272,214件、比率1:3.5)で高い性能を示し、Precision、Recall、Accuracy、F1スコア、AUCなどの評価指標で約99%を達成している。このアプローチは、テキスト中の意味・文脈・逐次的パターンを効果的に捉え、実世界のデータセットで見られる高度に偏ったデータでも有害コンテンツを堅牢に検出可能にしている。

