Sam Altman entre AGI et marché-2026-02-26
Sam Altman affirme qu’OpenAI o3 équivaut à l’intelligence d’un génie, réaffirmant l’ambition AGI et suscitant des débats sur la maturité réelle des modèles.
Sam Altman affirme qu’OpenAI o3 équivaut à l’intelligence d’un génie, réaffirmant l’ambition AGI et suscitant des débats sur la maturité réelle des modèles.
OpenAI prévoit d’intégrer des publicités dans ChatGPT en 2026, un projet précédemment suspendu lors de l’alerte rouge ; l’initiative suscite des débats sur l’impact sur l’expérience utilisateur.
OpenAI autorise des entreprises comme Etsy, Shopify et Walmart à vendre via ChatGPT en échange d’une commission, lançant un nouveau canal de monétisation e‑commerce intégré.
Dans WIRED, Sam Altman a évoqué des signaux autour de GPT‑6 : pas seulement un modèle plus grand, mais des avancées en mémoire et en infrastructure ‘Stargate’. Il a annoncé un aperçu développeur prévu pour le troisième trimestre 2026 et indiqué que les progrès dépendront de la capacité de calcul, avec des gigawatts initiaux via AMD en H2 2026.
Sam Altman plaide pour la création d’une agence internationale de gouvernance de l’IA, calquée sur l’AIEA, pour éviter des dérives autoritaires et instaurer une régulation multilatérale.
Sam Altman plaide pour la création d’une agence internationale dédiée à l’IA, proposant un encadrement multilatéral de la course à l’AGI, entre impératifs de sécurité et enjeux commerciaux.
Lors d’un sommet mondial de l’IA, Dario Amodei (Anthropic) et Sam Altman (OpenAI) auraient refusé de se tenir la main devant le Premier ministre indien Narendra Modi. Le geste, anecdotique mais parlant, renvoie aux tensions nées en 2021 entre les deux camps et à une rivalité toujours vive sur la gouvernance et le tempo de l’IA. L’information émane d’une source non spécifiée et mérite vérification, mais elle illustre, si elle se confirme, combien le symbolique compte désormais dans la diplomatie de la tech.
Google DeepMind présente Gemini 3.1 Pro, un modèle nativement multimodal capable de traiter texte, audio, images, vidéo et code au sein d’une même chaîne de travail. Objectif: réduire les frictions entre formats et rapprocher perception et raisonnement. Pour les équipes produit et R&D, de nouveaux cas se débloquent: analyse documentaire enrichie, débogage assisté, synthèse audiovisuelle. Reste à juger la fiabilité, les coûts d’inférence et l’ergonomie à l’épreuve des usages réels.
À l’India AI Impact Summit 2026, Demis Hassabis (Google DeepMind) avance un horizon de cinq à huit ans pour l’AGI. Il tempère toutefois l’enthousiasme: les modèles actuels n’apprennent pas en continu, planifient mal à long terme et transfèrent peu leurs acquis. Message sous-jacent: pas de saut magique, mais une feuille de route technique encore exigeante. Pour les entreprises, cap sur des cas d’usage ciblés et robustes, sans parier trop tôt sur une autonomie généralisée des systèmes.
Nous utilisons des cookies pour améliorer votre expérience, mesurer l’audience et personnaliser certains contenus.
Vous pouvez accepter, refuser ou gérer vos préférences à tout moment.
Déjà abonné ?