数日前、Andrej Karpathyの「LLM Knowledge Bases」に関する投稿がバズりました。彼は、コードを操作するのではなく知識を操作する方向への転換を提案しました。つまり、LLMを使って、生のデータを段階的に、markdownファイルの構造化された相互にリンクされたグラフへとコンパイルするという考え方です.
私はこのアイデアが大好きで、早速試してみました。驚くほどうまく動き、これから自分の研究をすべて保存していく方法はこれだと決めました。ですが、摩擦がきつかった。私の主な端末はスマホで、素晴らしい記事や論文を見つけるたびに、ラップトップの前にいるまで待って、リンクをコピーして、1つ取り込むだけでもスクリプトを山ほど実行しなければならなかったのです。
ポケットの中に「Knowledge wiki」を持ちたかった。
私はTypeScript開発者ではありませんが、Tauri v2とLangGraph.jsを使って、ネイティブアプリとしてソリューション全体を「vibecode」することにしました。往復のデバッグと試行錯誤をかなり重ねた結果、LLM Wikiをリリースしました。
さまざまなソースでの動き方:
このアプリは、ユニバーサルな「知識のファンネル(受け皿)」として作られています。私は、異なるメディア向けに専門のエクストラクタを統合しました。 * PDF:ローカルのワーカーを使って、学術論文やレポートをデバイス上で直接パースします。 * Web記事:MozillaのReadabilityエンジンを統合し、URLから「ノイズ」を取り除いて、LLMが分析できるきれいなmarkdownを生成します。 * YouTube:URLからトランスクリプトを直接取得します。YouTubeアプリから、文字通り40分のディープダイブ動画をLLM Wikiに共有すると、あなたがまだ見ている最中でも、主要な概念やエンティティを自動的にグラフへドキュメント化してくれます。
「エージェント型」のコア:
裏側では、主に2つのLangGraphエージェントで動いています。Ingest Agentは、重複を避けるために、作成または更新すべきページをどのように計画するかを担当する、重い作業を処理します。Lint Agentは、あなたの自動編集者です。壊れたリンク、何にもリンクされていない「孤立」ページ、そして異なるソース間の事実の矛盾をスキャンし、あなたが承認できるように修正案を提示します。
ぜひチェック(オープンソース):
このアプリは完全にオープンソースで、ベリングキー(OpenAI、Anthropic、Google、または任意の自前のエンドポイント)を持ち込みできます。事前のTS経験なしにこれをvibecodeしたので、確実にいくつかのバグはあるでしょうが、自分の用途では非常に安定して動いています。
GitHub(ReleasesにAPKとEXE): https://github.com/Kellysmoky123/LlmWiki
もし問題を見つけたら、またはエージェントの改良を手伝いたいなら、IssueまたはPRを開いてください。この「コンパイルされた知識」というアイデアを、どこまで発展できるかぜひ見てみたいです!
[link] [comments]




