| LocalLlamaの皆さんに、私の最新作である「Catapult」を紹介したいと思います。 Catapultは実験から始まりました――自分で実際に使うことになるランチャーを、ちゃんとvibe-codeできないだろうか?というものです。そもそも私の利用シーンではLMStudioが完全に合わず、あらゆるカスタムのllama.cppビルドを、時にはかなりカスタマイズしたオプション付きで実行する必要があります。とはいえ、モデルの整理/検索/ダウンロードを1か所で行い、ランタイムのプリセットを保持し、サーバーを起動し、ついでにたまに短いテスト用のチャットウィンドウもすぐに立ち上げられる場所があると便利です。 そこで、作ることにしました。ggmlは現在HuggingFaceの一部になっており、彼らには独自の長期開発ロードマップがあるため、これはどちらかと言えば「公式」のランチャーではありません。欠けていると感じていたもの――ランタイム、モデル、起動パラメータを管理するための、しかも完全でありながら、かなりユーザーフレンドリーな体験――を形にしようとする私の試みです。皆さんに気に入ってもらえると期待しているのは、ランチャーに現時点で`llama-server`が受け付ける「すべてのオプション」が文字どおり含まれていることです。そのため、「オプションXはUIにいつ/入るのだろう?」と悩む必要がなくなります。これは、プロンプトキャッシュ/チェックポイントに関して`llama-server`の“見た目にもRAMを食いそうな”デフォルトを変更できずに困ってしまう人たちの、最近の投稿を見ても、かなり関係のある話だと思います。 磨き込みをして、すべての機能が使えてテスト済みであることを確認しましたが、もちろんこれは最初のリリースです。より気になっているのは、既にランチャー系の解決策は世の中で飽和していて、あえてこれを使う価値がある人は実際にいるのか?という点です。 おまけとして:TUIも入っています。いくつかの社内Discordでの議論に沿って、「まだ別のElectronレンダラー」ではありません。積み重なった15個のウィンドウのようなものはなく、ターミナル体験のために最適化された本物のTUIです。機能面ではGUIより少しだけ完全度が低いですが、それでもメインの機能セットは揃っています(また、ターミナル体験に合わせて、バックグラウンドで動作しているサーバーに対して行き来しつつ、ログ表示でサーバー出力を確認できるようになっています)。 ソースコード形式、または事前にパッケージされたLinux(deb/rpm/AppImage)、Mac、Windowsのバイナリとして提供します。メインエンジンはTauriなので、ランチャーが`llama-server`並みにRAMを使うことによるElectronのつらさがないといいですね。ライセンスはApache 2.0です。 [link] [comments] |
Catapult - llama.cpp 用のランチャー/マネージャ
Reddit r/LocalLLaMA / 2026/4/10
💬 オピニオンSignals & Early TrendsTools & Practical Usage
要点
- Catapultは、カスタムの`llama.cpp`ビルド、モデル、ランタイム・プリセットを一か所で実行・管理するための新しいランチャー/マネージャとして紹介されています。
- 本プロジェクトは、サーバーが現時点で受け付けているオプションを文字通りすべて含めることで、`llama-server`のコマンドラインオプションを完全に網羅することを重視しており、高度なプロンプトキャッシュ/チェックポイントや、その他のRAM関連のチューニングを必要とするユーザーを対象にしています。
- GUIとTUI(端末UI)を両方提供し、ログの可視性を維持しつつ、動作中のバックグラウンド・サーバーと効率よく併用できるよう設計されています。
- Catapultは、Tauriを主要エンジンとして採用することで一般的なElectronのリソース負荷を避けることを目的に、Linux(deb/rpm/AppImage)、macOS、Windows向けに、ソースコードと事前ビルド済みバイナリの両方で配布されています。
- 著者はこれを「非公式」なコミュニティツールとして位置づけ、エコシステムにはすでに十分なランチャー・ソリューションがあるのか、それともこのアプローチへの需要があるのかを問いかけています。




