Open-weight vs modèles propriétaires-2025-04-22
OpenAI réduit fortement les tarifs de GPT-4, passant à 0,12 $ par million de tokens, une manœuvre destinée à freiner l’adoption des modèles open-weight en misant sur l’échelle et la simplicité d’usage.
OpenAI réduit fortement les tarifs de GPT-4, passant à 0,12 $ par million de tokens, une manœuvre destinée à freiner l’adoption des modèles open-weight en misant sur l’échelle et la simplicité d’usage.
Annonce d’une stratégie européenne d’usines d’IA adossées à des supercalculateurs et d’un appel à projets pour l’IA générative dans les services publics, financée par le programme Digital 2025-2027 pour soutenir data labs souverains.
La Commission dévoile un plan d’action continental pour l’IA, prévoyant 13 « usines d’IA » d’ici fin 2025 et cinq gigafactories, avec 140 millions d’euros pour l’IA générative, visant à renforcer la souveraineté numérique européenne.
GLM-4.5-Air est présenté comme leader open source pour l’orchestration de workflows d’agents autonomes : raisonnement hybride, contexte étendu (131K) et intégration d’outils externes. Il soutient la planification stratégique et l’automatisation multi-étapes.
Une étude de Capgemini indique que 75 % des dirigeants préfèrent des modèles propriétaires pour des raisons de sécurité et de support. Le rapport pointe aussi le frein des compétences techniques nécessaires pour exploiter les open-weight, questionnant la maturité de leur écosystème.
OpenAI a levé 40 milliards de dollars auprès de SoftBank, dont 20 milliards conditionnels à une restructuration levant le plafond de profits et permettant des actions traditionnelles d’ici début 2026. L’opération met la pression sur les procureurs généraux et souligne la tension entre mission non‑profit et expansion lucrative.
La Commission européenne mobilise 20 milliards d’euros via l’initiative «Apply AI» pour accélérer la mise à l’échelle de l’IA dans l’industrie et la recherche, ciblant la défense, la santé et l’énergie pour combler les lacunes en infrastructures et talents.
Des données publiées par DeepMind indiquent que l’architecture MoE de Gemini 3 offre une efficacité paramétrique deux fois supérieure à GPT-5, et réduit d’environ 50% les besoins de calcul pour le déploiement sur appareils.
Mistral AI signe des contrats avec France Travail et des clients en Allemagne, Luxembourg et Singapour, envoyant des ingénieurs pour personnaliser ses modèles open source (gratuits et payants) et améliorer la productivité : plusieurs contrats sont ensuite renouvelés.
Nous utilisons des cookies pour améliorer votre expérience, mesurer l’audience et personnaliser certains contenus.
Vous pouvez accepter, refuser ou gérer vos préférences à tout moment.
Déjà abonné ?