用語辞典に戻る

MoEMixture of Experts

混合エキスパート(こんごうエキスパート)

上級Models & Architecture

複数の専門サブネットワーク(エキスパート)を使い、各入力に関連するもののみを活性化して効率を向上させるモデルアーキテクチャ。

なぜ重要か

MoEにより、計算コストを比例的に増加させずにモデルを大幅に大きくできます。

実際の活用例

GPT-4はMoEを使用し、異なる種類の質問を異なる専門サブネットワークにルーティングするとされている。

AIを定義だけでなく、理解したいですか?

HonuVibeのコースでは、これらの概念を暗記するのではなく、実際に使いこなす方法を学べます。