外部モデルに一切頼らず自作LLMをバイブコーディングで作ってみた

Qiita / 4/20/2026

💬 OpinionModels & Research

Key Points

  • 自作LLMを「外部モデルに一切頼らず」ゼロから実装し、深層学習の理解と好奇心を原動力にプロジェクトを開始したと述べている。
  • 研究室でのニューラルネットワーク実装経験(数学的説明やnumpy実装)を、LLM作成にどう応用するかが主題になっている。
  • 実際の現場で使うCUDAやPyTorchに触れつつ、実装を進める方針が示唆されている。
  • バイブコーディング(勢い重視の実装手法)で試作しながら学ぶスタイルが、内容の性格を決めている。
はじめに 研究室で深層学習の中身を勉強しているので、自作でLLMを作ってみたいという好奇心からこのプロジェクトを始めました。 研究室ではさまざまなNNアーキテクチャをnumpyで実装し、数学的に説明するということをやっているのですが、実際の現場ではcudaでpytorch...

Continue reading this article on the original site.

Read original →