Sam Altman : entre AGI et marché-2025-03-21
OpenAI lève 40 milliards de dollars auprès d’investisseurs pour renforcer sa position face à Google et Anthropic et accélérer ses investissements en infrastructure et recherche.
OpenAI lève 40 milliards de dollars auprès d’investisseurs pour renforcer sa position face à Google et Anthropic et accélérer ses investissements en infrastructure et recherche.
Meta et Google confirment que l’inférence représente 60–70 % de la consommation énergétique de l’IA, contre 20–40 % pour l’entraînement. Ce constat récent souligne le coût des déploiements à grande échelle et soulève des critiques sur la transparence des entreprises.
Gemini 3 améliore de 60% les performances sur les tâches de question-réponse visuelle (VQA) par rapport à GPT-5 ; des analystes estiment qu’il alimentera une part importante des nouveaux agents multimodaux en service client d’ici 2026.
Alibaba déploie Qwen3-30B-A3B-Thinking-2507, un LLM open source avec mode de réflexion pour planification pas-à-pas et contexte long (256K tokens). Conçu pour agents autonomes, il facilite intégration d’outils et planification à long terme sans supervision constante.
Mistral AI lance Mistral Large 2, un modèle open-weight performant surpassant Llama 3 sur plusieurs benchmarks et distribué sous licence Apache 2.0. L’annonce souligne l’essor des acteurs européens et ouvre la voie à des partenariats cloud locaux.
OpenAI réalise une levée de fonds record de 40 milliards de dollars auprès d’investisseurs privés pour financer l’infrastructure nécessaire à sa vision AGI et renforcer sa position commerciale.
OpenAI lève 40 milliards de dollars auprès d’investisseurs pour financer infrastructure et recherche, marquant un tournant vers une expansion commerciale accélérée malgré des pertes croissantes.
DeepMind annonce Gemini 3, un modèle de nouvelle génération d’environ 2 trillions de paramètres avec architecture mixture-of-experts et intégration de RAG pour réduire les hallucinations d’environ 30% sur les requêtes factuelles.
DeepSeek lance DeepSeek-R1-0528, un modèle open source de 671 milliards de paramètres optimisé pour le raisonnement et la planification par renforcement. Il décompose tâches complexes et orchestre agents autonomes, concurrençant des modèles haut de gamme.
Nous utilisons des cookies pour améliorer votre expérience, mesurer l’audience et personnaliser certains contenus.
Vous pouvez accepter, refuser ou gérer vos préférences à tout moment.
Déjà abonné ?