よくあるGPUメモリの偏り PyTorchでマルチGPUをすると, こんな感じで 1つのGPUのメモリだけ他に比べて多い (2倍以上)場合って OOMでバッチサイズが増やせずに悲しいですよね。 解決法 以下の方法で,8 GPUでOOMしないバッチサイズが16->32になりました…
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。