純粋なコマンドだけでバニラMinecraft上でLlama2モデルを動かす

Reddit r/LocalLLaMA / 2026/4/4

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • 開発者は、Llama2言語モデルをMinecraftのデータパックへ変換するツールを作成し、バニラのコマンドだけでゲーム内にてテキスト生成(推論)を実行できるようにしました。
  • 現在の実装は開発途上で、対応しているのはargmaxサンプリングのみでトークナイザがなく、そのため出力が制限され、モデルが反復ループに陥ってしまう可能性があります。
  • このプロジェクトでは、top-pサンプリングの追加とトークナイザの完成が、より自然な続きを含む生成品質と使い勝手を改善する可能性が高いと述べています。
  • 性能は非常に遅いと報告されており、約1,500万パラメータのモデルで単一トークンを生成するのに約20分かかる可能性があるため、現時点では実用的なチャット体験というよりは概念実証(proof-of-concept)に近い状態です。
  • 利用者は、モデルとトークナイザのバイナリ(例:llama2.c ecosystemから)をダウンロードし、リポジトリの指示に従うことで試せるよう招待されています。著者は、実用的なMinecraftチャットモデルへ向けて改良を続ける予定です。
Running Llama2 Models in Vanilla Minecraft With Pure Commands

I made a program that converts any

llama2 large language model into a

minecraft datapack, and you can run inference right

inside the game. It's still semi-finished, Currently I've only

implemented argmax sampling, so the output

tends to stuck in loops sometimes. Adding top-p

sampling will probably improve this a lot. The tokenizer

is also missing for now, it can only generate text

from scratch.

Inference speed is...quite slow. With a 15M parameter

model, it takes roughly 20 minutes to produce a single

token. If you want to try it out yourself, you can

download "stories15M.bin" and "tokenizer.bin" from

llama2.c, and follow the instructions in my repository

down below.

I will keep working on this project, hopefully one day I

will be able to bring a usable chat model in Minecraft.

Github Repository

*Inspired by Andrej Karpathy's llama2.c

submitted by /u/This-Purchase-3325
[link] [comments]