Reddit r/LocalLLaMA / 2026/4/25
financebro のバズが落ち着いた今、 llama.cpp 用の turboquant の実装はどこかにありますか? kv キャッシュメモリをでも 50% 節約できたら嬉しいです。
AI Business
日経XTECH
AI時代の仕事術。Notta搭載で会議の議事録を自動生成するスマートイヤホン。
世界100万人が愛用。AIで文字起こし・要約を自動化するボイスレコーダー。
AIで画像を高画質化。写真・イラストを簡単にアップスケール。
← 戻る