DeepMind à l’assaut des modèles multimodaux-2025-04-01

Des données publiées par DeepMind indiquent que l’architecture MoE de Gemini 3 offre une efficacité paramétrique deux fois supérieure à GPT-5, et réduit d’environ 50% les besoins de calcul pour le déploiement sur appareils.