私たちは、ポストトレーニングのインフラストラクチャを中心としたプロジェクトを調査してきました。これは、1つのことを本当にうまくやるミニマルなツールです:
優しいコントロールプレーンを提供することで、研究者、AI/MLエンジニア、そしてハイレベルな試作担当(Tinkerers)がポストトレーニングを少し楽にできるようにします。ポストトレーニングのモデルは、新しい複雑性の軸――オーケストレーションと計算リソース管理――を、独自のトレーニングループの定義、報酬(rewards)とルーブリック(rubrics)の設定、並列トレーニングの管理と並行してもたらす傾向があります。
TahunaはCLIファーストです。ローカル環境と計算プロバイダの間に配置されます。トレーニングループはあなたが完全に所有します――ロールアウトのロジック、報酬、データパイプライン。そこ周りの配管(プランビング)を処理してくれます。
コードを整理していますが、近いうちにスタック全体をオープンソース化します。
無料で利用できます。初期段階で、いじってみたい人、壊してみたい人、アダプタの貢献をしたい人を探しています。
コメント欄で実装の詳細やトレードオフについて話せると嬉しいです。
[link] [comments]



