📰 L'actu
OpenAI lance GPT-5.5 "Spud", un modèle conçu pour les tâches professionnelles: Ce nouveau modèle atteint 82,7% de réussite (openai.com) sur les benchmarks de travail réel mais coûte six fois plus cher que son prédécesseur. Il marque l'évolution de l'IA conversationnelle vers l'automatisation productive, en concurrence directe avec Claude Opus 4.7.
OpenAI lance ChatGPT Images 2.0 avec génération de texte sans coquilles: Le modèle peut désormais produire des centaines de mots sans fautes (openai.com) au sein d'une même image et s'intègre comme compétence dans l'app Codex pour générer des images de référence via appels d'outils. Cette capacité débloque des cas d'usage jusqu'ici hors de portée du texte-dans-l'image : maquettes d'interfaces photoréalistes, magazines illustrés multi-pages et QR codes stylisés fonctionnels.
Anthropic publie le post-mortem de la dégradation de Claude Code: La société identifie trois bugs distincts (anthropic.com) survenus entre le 4 mars et le 20 avril : effort de raisonnement par défaut abaissé de "high" à "medium", mémoire de réflexion effacée à chaque tour sur les sessions inactives, et plafond de 100 mots imposé par le prompt système. Tous corrigés en v2.1.116 avec réinitialisation des quotas, l'épisode illustre la difficulté à détecter des régressions diffuses au croisement du modèle, du produit et du harness.
Le nouveau modèle Claude Opus 4.7 divise les utilisateurs: Anthropic a publié une mise à jour majeure (anthropic.com) qui améliore les performances mais augmente les coûts de 35% à cause d'un nouveau tokeniseur. Les utilisateurs surnomment ironiquement le modèle "Gaslightus 4.7" pour ses réponses parfois erratiques.
Mozilla corrige 271 vulnérabilités Firefox grâce à Claude Mythos d'Anthropic: Firefox 150 intègre les correctifs identifiés par une version preview du modèle Mythos (blog.mozilla.org), après une première vague de 22 bugs détectés par Opus 4.6 en février. Pour Bobby Holley, ingénieur Mozilla, ces capacités font basculer la sécurité informatique d'un régime offensivement dominant vers un avantage défensif, en éliminant l'asymétrie de coût entre attaquants et défenseurs.
💡 L'éclairage de Sam Henri Gold
Figma a créé une langue que les LLMs ne parlent pas
Sam Henri Gold, designer produit, tire un constat après avoir essayé Claude Design : Figma a passé dix ans à inventer son propre vocabulaire pour gérer le design à l'échelle (composants, variants, variables aliasées, modes, props), au point que des rôles entiers se spécialisent désormais dans la maintenance du système lui-même.
Le problème : les LLMs ont été entraînés sur du code, pas sur ce vocabulaire propriétaire. Figma s'est ainsi exclu, sans le vouloir, du corpus qui l'aurait rendu exploitable par les agents. Quand on demande à une IA de produire une interface, elle écrit du HTML et du JavaScript, pas des primitives Figma.
Figma avait gagné contre Sketch en imposant le fichier design, plutôt que le code, comme source de vérité. À l'ère des agents, ce rapport de force se retourne. À mesure que les designers produisent du code via des agents, la source de vérité migre vers le code. Claude Design incarne ce basculement : pas de primitives inventées, HTML et JavaScript jusqu'en bas. Son avantage structurel, c'est son voisin Claude Code, qui transforme la boucle design/implémentation en une seule conversation.
Gold anticipe deux trajectoires pour les outils qui survivront. D'un côté, des outils alignés code comme Claude Design. De l'autre, un environnement d'exploration pure, libéré des systèmes, peut-être une app iPad au stylet, peut-être un Photoshop dopé qui exploite les effets visuels que Figma a négligés pendant une décennie. Figma Make, qui persiste à traiter le fichier design comme canonique, tombe à côté des deux.
The jagged frontier is still there. It is just much further out than it used to be.
Ethan Mollick - Sign of the future: GPT-5.5
The mechanism whereby [...] we imagined it would happen is that we would make models that were good at coding and good at AI research and we would use that to produce the next generation of model and speed it up to create a loop that would [...] increase the speed of model development.
[...] And then it's a question of how fast does that loop close.
Not every part of that loop is something that can be sped up by AI [...]. There's [...] chips, there's manufacturer of chips, there's training time for the model. So [...] I think there's a lot of uncertainty. It's easy to see how this could take a few years. [...] It's very hard for me to see how it could take longer than that.
[...] But if I had to guess, I would guess that this goes faster than people imagine. And that [...] key element of code and increasingly research going faster than we imagine - that's going to be the key driver.
Dario Amodei, CEO d'Anthropic
📝 Point de vue
Le mot de la fin
Au milieu de la course aux modèles de coding qui s'emballe (Opus 4.7, GPT-5.5, DeepSeek V4, Kimi K2.6 en l'espace de qqs jours, on comprend mieux pourquoi en lisant Dario juste au-dessus), je voulais partager un tout petit tip. Rien de fou. Juste un truc qui rend l'interaction plus tranquille avec ces modèles verbeux qui te noient sous des pavés à chaque réponse (après, ça dépend beaucoup du modèle que vous utilisez au quotidien).
Je rajoute dans leurs instructions :
Critique : Interaction et communication avec l'utilisateur. À chaque fin de réponse, tu écris systématiquement un paragraphe supplémentaire dans lequel tu compresses la réponse que tu viens de générer. L'utilisateur lira principalement cette compression.
Bête. Très bête. Mais souvent, ce seul paragraphe me suffit. Et quand il ne suffit pas, il oriente ma lecture du pavé qui précède. Je sais où regarder.
Au final, un petit gain de confort, mais bien réel surtout les jours ou vous êtes fatigué.
PS : compression, c'est mon mot du moment.