https://github.com/chrishayuk/larql
https://youtu.be/8Ppw8254nLI?si=lo-6PM5pwnpyvwMXh
これで、静的なLLMモデルを分解し、各レイヤー上でknnウォークを行えるようになりました(各レイヤーはグラフデータベースに分解されています)。これはmatmul(行列の積)を行うのと数学的にまったく同一です。再学習せずに、モデル内部の事実に関する知識を更新できます(グラフDBに挿入するだけです)。また、メモリ使用量も少なくなります(単なるデータベースなので)。作成者はIBMのCTOです。
[リンク] [コメント]




