ちしきのじょうりゅう
knowledge distillation
知識の蒸留
(コンピュータの学習において)基本的にはいろいろなモデルを用いて広く深く学ばせたほうが正解にたどり着きやすいが、スマートフォンなどの大量処理に向いてないデバイスで使用したい場合などでもなんとか精度が出るように、たくさん学ばせた知識をじょうずに抽出して省スケール化すること。
Coffee Break
――
698