Reka Edge 2603のマルチモーダル対応がllama.cppに統合されました

Reddit r/LocalLLaMA / 2026/4/23

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Reka Edge 2603のマルチモーダル対応がllama.cppにアップストリームで統合され、標準スタックでモデルを動かしやすくなりました。
  • 手始めに、Hugging FaceのリポジトリからReka Edge 2603の重みを取得し、llama.cppの提供する変換スクリプトでGGUFに変換します。
  • テキストデコーダを量子化するためのスクリプトも用意されており(例:Q4/Q8系)、効率化に利用できます。
  • モデルは現時点で推論(reasoning)に対応していないため、llama-serverは`--reasoning off`で起動する必要があります。

こんにちは r/LocalLLaMA!私はRekaで働いていて、先月私たちの AMA を企画しました。皆さんの中には llama.cpp のサポートを求めていた方もいると思いますが、これは、Reka Edge 2603 が llama.cpp で上流(アップストリーム)対応されたことをお知らせするフォローアップです。

始めるには:

補足:現時点では、このモデルは推論(reasoning)をサポートしていません。そのため、`--reasoning off` を付けて llama-server を実行してください。楽しいハッキングを!

投稿者 /u/Available_Poet_6387
[link] [comments]