A model architecture where different sub-networks ("experts") specialise in different types of inputs, and a gating network routes each token to the most relevant experts. MoE enables very large model capacity at lower inference cost—Mixtral and GPT-4 are believed to use this approach.
Κλείστε μια συμβουλευτική για να συζητήσετε πώς οι έννοιες AI εφαρμόζονται στις προκλήσεις σας.