5と6のデータセットがあり、合計で11個です。
次に、5つの異なるディープラーニングネットワークのコレクションがあり、それぞれが自分固有の非DLパラメータのセットを持ち、0個から3〜4個までの範囲です。
各パラメータに対して教育的推測のリスト(5〜6個の値)を持っていると想定し、それぞれのDL手法について各データセットでそれらの組み合わせをすべて試したいと思います。計算を一晩放置しておくのも構いません。この問題をどう解決しますか?これらを1つのGPUで非逐次的に並列に計算する方法はありますか?
* 各実行には2つのフェーズがあります:学習と予測で、両者の間でモデルのチェックポイントアーティファクトが受け渡されます。これらには上書きされないよう、特別なサフィックスを付ける必要があると思います。
* 主な問題は、単一のGPUという点です。CPUのように論理コアを使って分割できるような方法はないと思います。11個のデータセットそれぞれが1コアを占有する非DL/NN手法でこのタスクを完了したことがあります。GPUがボトルネックになるようです。
* エポック数や許容誤差など、DLパラメータも走査してみるべきでしょうか?
この作業を効率的に行うには、誰かアドバイスはありますか?
[リンク] [コメント]



