シンプルな microGPT を十分学習させると、教えていない足し算があとから解けるようになる modular addition で grokking を観察する
Qiita / 4/10/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- microGPTのような小規模Transformerでも、学習データで明示的に教えていない「足し算」を、十分学習させることで後から(一般化として)解けるようになる現象を観察する。
- 足し算をmodular addition(法modでの加算)として設計し、学習の挙動変化を使ってgrokking(学習初期はできないが後半で急に解ける等)を見ていく。
- 教えていない計算タスクが“突然”可能になる裏で、モデルが表面的な相関ではなくアルゴリズム的な表現へ移っていく可能性を示唆する。
- PyTorchやGoogle Colab等の環境で再現・検証しやすい形で、機械学習の学習ダイナミクス(十分学習の重要性、テスト時の能力変化)を理解する狙いがある。
この記事では、とても小さい GPT 風の Transformer(microGPT) を使って、
訓練データでは早く正解できるようになるのに
訓練で教えていない足し算は、かなり遅れてから解けるようになる
という、grokking を Google Colab 上で体験し...
Continue reading this article on the original site.
Read original →Related Articles

GLM 5.1 tops the code arena rankings for open models
Reddit r/LocalLLaMA
can we talk about how AI has gotten really good at lying to you?
Reddit r/artificial
AI just found thousands of zero-days. Your firewall is still pattern-matching from 2014
Dev.to
Emergency Room and the Vanishing Moat
Dev.to
I Built a 100% Browser-Based OCR That Never Uploads Your Documents — Here's How
Dev.to