| I made a program that converts any llama2 large language model into a minecraft datapack, and you can run inference right inside the game. It's still semi-finished, Currently I've only implemented argmax sampling, so the output tends to stuck in loops sometimes. Adding top-p sampling will probably improve this a lot. The tokenizer is also missing for now, it can only generate text from scratch. Inference speed is...quite slow. With a 15M parameter model, it takes roughly 20 minutes to produce a single token. If you want to try it out yourself, you can download "stories15M.bin" and "tokenizer.bin" from llama2.c, and follow the instructions in my repository down below. I will keep working on this project, hopefully one day I will be able to bring a usable chat model in Minecraft. *Inspired by Andrej Karpathy's llama2.c [link] [comments] |
純粋なコマンドだけでバニラMinecraft上でLlama2モデルを動かす
Reddit r/LocalLLaMA / 2026/4/4
💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research
要点
- 開発者は、Llama2言語モデルをMinecraftのデータパックへ変換するツールを作成し、バニラのコマンドだけでゲーム内にてテキスト生成(推論)を実行できるようにしました。
- 現在の実装は開発途上で、対応しているのはargmaxサンプリングのみでトークナイザがなく、そのため出力が制限され、モデルが反復ループに陥ってしまう可能性があります。
- このプロジェクトでは、top-pサンプリングの追加とトークナイザの完成が、より自然な続きを含む生成品質と使い勝手を改善する可能性が高いと述べています。
- 性能は非常に遅いと報告されており、約1,500万パラメータのモデルで単一トークンを生成するのに約20分かかる可能性があるため、現時点では実用的なチャット体験というよりは概念実証(proof-of-concept)に近い状態です。
- 利用者は、モデルとトークナイザのバイナリ(例:llama2.c ecosystemから)をダウンロードし、リポジトリの指示に従うことで試せるよう招待されています。著者は、実用的なMinecraftチャットモデルへ向けて改良を続ける予定です。



