DeepMind à l’assaut des modèles multimodaux-2026-02-19
Google DeepMind présente Gemini 3.1 Pro, un modèle nativement multimodal capable de traiter texte, audio, images, vidéo et code au sein d’une même chaîne de travail. Objectif: réduire les frictions entre formats et rapprocher perception et raisonnement. Pour les équipes produit et R&D, de nouveaux cas se débloquent: analyse documentaire enrichie, débogage assisté, synthèse audiovisuelle. Reste à juger la fiabilité, les coûts d’inférence et l’ergonomie à l’épreuve des usages réels.