📰 L'actu
Anthropic lance Cowork sur Windows avec parité complète des fonctionnalités: L'assistant de bureau offre désormais l'accès aux fichiers, l'exécution de tâches multi-étapes, les plugins et les connecteurs MCP (x.com) sur Windows comme sur macOS. Les utilisateurs peuvent également définir des instructions globales et par dossier que Claude applique automatiquement à chaque session.
Google met à jour Gemini 3 Deep Think pour la recherche scientifique et l'ingénierie: Le mode de raisonnement spécialisé atteint 48,4% sur Humanity's Last Exam, 84,6% sur ARC-AGI-2 et 3455 Elo sur Codeforces (blog.google), avec des performances médaille d'or aux Olympiades de mathématiques, physique et chimie 2025. Deep Think est disponible pour les abonnés Google AI Ultra et, pour la première fois, via l'API Gemini en accès anticipé pour les chercheurs et entreprises.
Boston Dynamics et Google DeepMind s'allient pour doter les robots humanoïdes d'IA fondationnelle: Les deux entreprises vont intégrer les modèles Gemini Robotics aux robots Atlas (bostondynamics.com), en commençant par des tâches industrielles dans le secteur automobile. Annoncé au CES 2026, le partenariat vise à créer des modèles vision-langage-action adaptés aux humanoïdes, avec des recherches menées conjointement dans les deux laboratoires.
Isomorphic Labs dévoile un moteur de conception de médicaments qui surpasse AlphaFold 3: L'IsoDDE double la précision d'AlphaFold 3 en prédiction de structures protéine-ligand (isomorphiclabs.com) sur les systèmes les plus difficiles et surpasse les méthodes physiques de référence en prédiction d'affinité de liaison. Le système peut identifier des poches de liaison inédites à partir de la seule séquence d'acides aminés, ouvrant la voie à la conception rationnelle de médicaments entièrement in silico.
💡 L'éclairage de Will Manidis
Will Manidis, investisseur et entrepreneur IA, pose un diagnostic sur le boom en cours : l'IA est partout en consommation et quasiment nulle part en production. Les gros titres parlent de budgets de tokens, de clusters de GPU, de milliards en infrastructure. Le produit principal de ces dépenses est l'expérience de dépenser.
Pour nommer ce mécanisme, Manidis forge le concept de "tool-shaped object" : un objet en forme d'outil qui produit la sensation du travail, pas le travail. Comme un rabot japonais artisanal à 3000 dollars dont les copeaux sont sublimes quand une raboteuse électrique fait le même travail. Ou comme FarmVille, le jeu Facebook qui a capté 80 millions de joueurs : peu importe où vous cliquez, le chiffre monte, aucune action ne peut échouer. Les systèmes d'agents LLM suivent la même mécanique. Un agent lit, résume, rédige, vérifie, route, enregistre, remplit un dashboard. Les tokens défilent, les logs s'accumulent, l'appareil bourdonne. Ce qui se produit, c'est l'opération de l'appareil lui-même.
Le marché de se sentir productif est, selon Manidis, infiniment plus grand que le marché d'être productif. Ce qui rend le phénomène difficile à repérer : les LLMs sont aussi de vrais outils. La frontière est un gradient qui bouge avec chaque cas d'usage, chaque prompt. Mais leur fluidité verbale les rend plus trompeurs que tout ce qui a précédé. FarmVille ne pouvait simuler que la culture. Notion, que l'organisation. Un LLM peut simuler n'importe quoi.
Sa conclusion : l'impact réel viendra, mais beaucoup plus tard et sous une forme très différente de ce que la course actuelle aux tokens laisse croire.
If you are considering taking a job offer, you may want to ask what your token budget will be.
Thermostat
Fermer la boucle
Amp a tué son extension VS Code cette semaine. Amp, c'est un agent de code dans la même famille que Claude Code, utilisé par des devs qui se veulent à la "frontière". Leur extension : une "sidebar", le panneau de "chat" qu'on trouve dans les éditeurs de code. Ton code au centre de l'écran, sur le côté droit une conversation avec l'agent. Ils l'ont construite pendant un an. Et puis ils l'ont tuée.
It feels like this is not it anymore. This is done. This is not the future.
You, the human, the slow human, are the feedback loop. And we want to get you out of that role.
Pour comprendre ce que ça veut dire, un petit détour.
Le grille-pain et le thermostat.
Un grille-pain. Tu règles le minuteur sur 3 minutes, il chauffe 3 minutes. Que le pain soit carbonisé ou à peine tiède, il s'en fiche. Il n'a aucun capteur. Il exécute. Point. En ingénierie, on appelle ça une boucle ouverte. Une instruction part, aucune vérification ne revient.
Un thermostat. Tu règles 20°C, il mesure la température, et il ajuste. Trop froid, il chauffe. Trop chaud, il coupe. Ça boucle en permanence : consigne, mesure, correction. C'est une boucle fermée. Le système se vérifie lui-même.
Quand tu utilises ChatGPT, Claude, ou n'importe quel chatbot IA, tu es le thermostat. C'est toi qui lis la réponse, qui juges si c'est bon, qui corriges, qui relances. L'IA produit, tu mesures, tu ajustes. Ping-pong.
Ça marche. Mais tu es le goulot d'étranglement. Un humain, une boucle. C'est séquentiel.
Et si l'agent pouvait être son propre thermostat ?
C'est ce qu'on appelle "fermer la boucle" (closing the loop). Permettre à l'agent de vérifier lui-même son travail. De se corriger sans te demander. En dev, c'est assez naturel : l'agent écrit du code, lance des tests, lit les erreurs, corrige, relance. Et ainsi de suite. La boucle tourne sans toi.
To close the loop, let agents verify what they've done. Let them test, run commands, browse pages, capture output, and read logs. The agent shouldn't have to ask you for those things. Try to remove yourself from the flow.
Pour que ce mode de fonctionnement soit possible, il a fallu que les modèles progressent. Il y a un an, lâcher un agent en autonomie pendant 15 minutes, c'était une recette pour le désastre.
Les modèles récents (Opus 4.5+, GPT-5.2+ Codex) ont changé la donne. Tu peux envoyer l'agent bosser et revenir 30 minutes plus tard. Amp résume bien le shift : "it should feel like text message versus writing a letter." Le ping-pong, c'est le SMS. Quand la boucle est fermée, tu passes en mode lettre : tu prends le temps de rédiger ta demande, tu envoies, tu laisses l'agent travailler.
Encore faut-il que l'agent puisse agir sans demander la permission à chaque étape. Si toutes les 30 secondes il s'arrête pour dire "ai-je le droit de modifier ce fichier ?", "puis-je lancer cette commande ?", c'est toujours toi le thermostat. D'où le mode "yolo". L'agent a carte blanche, il avance vite. C'est + risqué aussi. hum. hum.
En pratique, les deux modes cohabitent. Tu commences en ping-pong : tu échanges, tu explores, tu dialogues. Une fois que toi et l'agent avez compris ce que vous voulez, tu lâches la bête. "Allez, a+, on se revoit tout à l'heure". Le ping-pong prépare le terrain, le yolo le dévale.
Qui dit nouveau mode, dit nouvelle interface.
Et c'est là que la décision d'Amp devient logique.
La sidebar, c'est une interface de conversation pour une seule et unique tâche. Un fil, un échange, synchrone. L'humain est captif. C'est parfait pour le ping-pong.
Mais si tu fermes la boucle, tu n'as plus autant besoin de la sidebar. Tu as besoin d'autres choses. Une vue multi-tâches, peut-être. Des indicateurs d'état (en cours, bloqué, terminé). Des notifications quand l'agent a fini ou quand il est coincé ? Je ne sais pas. La bonne interface est encore à inventer.
Le parallélisme vient avec. Si tu n'es plus dans la boucle, tu peux lancer plusieurs agents en parallèle.
C'est un signal faible, mais je le vois émerger. Amp tue sa sidebar. Peter Steinberger, dont je vous parlais la semaine dernière, a codé OpenClaw ainsi. Et je le vois aussi dans ma propre pratique (quand je code).
La compétence se déplace. Une nouvelle compétence émerge : concevoir des boucles de vérification. Définir les critères et les outils qui permettent à l'agent de travailler sans toi. Et rendre le système observable. Pour l'agent d'abord, c'est ce qui lui permet de fermer la boucle : des tests, des logs, des erreurs lisibles. Pour toi ensuite, pour savoir ce qui se passe quand tu n'es plus dans la boucle.
En ingénierie, il y a un nom pour ça. Fermer la boucle. Closing the loop.