📰 L'actu
Anthropic lance Claude Code Channels pour piloter ses sessions depuis Telegram et Discord : La nouvelle fonctionnalité permet de contrôler une session Claude Code via des MCP dédiés (x.com) pour Telegram et Discord, transformant ces messageries en interface de commande directe depuis un smartphone. Cette preview de recherche prolonge la tendance d'Anthropic à rendre Claude Code accessible au-delà du terminal, en offrant un contrôle asynchrone à distance.
Stripe et Tempo publient un protocole ouvert pour les paiements entre agents IA : Le Machine Payments Protocol (stripe.com) permet aux agents d'effectuer des microtransactions et paiements récurrents en stablecoins ou en monnaie classique, intégrable en quelques lignes de code via l'API PaymentIntents. Des entreprises comme Browserbase et PostalForm acceptent déjà les paiements automatisés d'agents, positionnant Stripe comme infrastructure financière de l'économie agentique.
NVIDIA lance NemoClaw pour sécuriser les agents autonomes OpenClaw : Le stack s'installe en une seule commande (nvidianews.nvidia.com) et ajoute des contrôles de confidentialité et de sécurité aux agents IA autonomes de la plateforme open source OpenClaw, qualifiée par Jensen Huang de « système d'exploitation de l'IA personnelle ». NemoClaw fonctionne du cloud aux PC NVIDIA RTX, DGX Spark et DGX Station, permettant aux agents de tourner en continu sur du matériel dédié.
Mistral lance Small 4, un modèle unique unifiant raisonnement, multimodal et codage : Le modèle open source de 119 milliards de paramètres (mistral.ai) utilise une architecture MoE avec seulement 6 milliards de paramètres actifs par token, offrant une fenêtre de contexte de 256k tokens et un effort de raisonnement configurable. Publié sous licence Apache 2.0, il réduit la latence de 40% et triple le débit par rapport à Mistral Small 3, consolidant les capacités de Magistral, Pixtral et Devstral en un seul modèle.
Au moins huit labels « sans IA » se disputent la certification des produits humains : Des initiatives comme Not By AI, Proudly Human ou Books by People proposent des systèmes concurrents (bbc.com) de certification « human-made » au Royaume-Uni, en Australie et aux États-Unis, allant du simple badge téléchargeable à l'audit rigoureux vérifiant chaque étape de publication. La définition même de « sans IA » fait débat — certains ne ciblent que l'IA générative, comme le distributeur Mise en scène Company — et cette fragmentation risque de semer la confusion chez les consommateurs si aucun standard unique n'émerge, à l'image des débuts du label Fair Trade.
It’s lame that the word we chose for an important new form of currency was “tokens,” real failure of imagination.
💡 L'injection de prompt, un problème d'ingénierie sociale
OpenAI repense la défense des agents IA
L'équipe sécurité d'OpenAI publie son analyse des attaques par injection de prompt contre les agents IA. Les attaques les plus efficaces ne sont plus de simples instructions cachées dans du contenu externe. Elles ressemblent de plus en plus à de l'ingénierie sociale.
Ce glissement change la nature du problème. Filtrer les entrées malveillantes revient alors à détecter un mensonge ou une manipulation, souvent sans contexte suffisant. Les systèmes de type "AI firewall", qui tentent de classifier les inputs en malveillants ou légitimes, échouent face à ces attaques élaborées.
OpenAI propose de traiter l'agent IA comme un agent de service client humain. Un employé exposé en permanence à des interlocuteurs potentiellement manipulateurs dispose de règles, mais aussi de garde-fous déterministes qui limitent les dégâts en cas de compromission. Plafonds de remboursement, alertes anti-phishing, confirmation requise pour les actions sensibles. L'objectif n'est pas d'empêcher toute manipulation, mais de contraindre son impact.
En pratique, l'approche se combine avec une analyse classique en sécurité, entrées et sorties : identifier d'un côté les vecteurs d'influence (contenu externe non fiable) et de l'autre les capacités dangereuses (transmission de données, suivi de liens, appels d'outils). Leur mécanisme "Safe Url" détecte quand l'assistant s'apprête à transmettre des informations de conversation à un tiers, et demande confirmation à l'utilisateur ou bloque l'action.
Concevoir la sécurité d'un agent IA ne se limite pas à rendre le modèle plus résistant. Il faut architecturer le système entier pour que les conséquences d'une manipulation réussie restent contenues.
1 journée, 1 conversation ?
Compact
Jusqu'à récemment, je n'utilisais pas beaucoup /compact. Quand ma conversation devenait trop longue, j'en ouvrais une nouvelle. Parfois, je stockais les infos importantes dans un fichier markdown temporaire, une espèce de mémoire externe bricolée pour pouvoir repartir de là.
Les modèles changent, les pratiques aussi.
L'autre jour, avec pi, je me suis surpris à passer une journée entière sur la même conversation. Une journée. Sans repartir de zéro. En utilisant /compact plusieurs fois.
Mais attention - pas en mode passif. Je garde toujours un œil sur le taux de remplissage de ma fenêtre de contexte. Je n'attends pas d'être dans le rouge pour faire un compact. Si je suis à 30% mais que je sais que la suite va être costaud, je compacte.
Et surtout : avant de compacter, je prépare le terrain.
Je ne fais pas juste /compact. Non. Avant, j'ai souvent un petit échange avec le modèle - en fonction de ce que je prévois de faire après : "On disait quoi sur l'option A ?", "Rappelle-moi les contraintes de la B". Je m'assure que les infos dont j'aurai besoin sont fraîches dans la conversation.
L'avantage avec un outil open source comme pi, c'est qu'on peut aller voir sous le capot. J'ai regardé comment il gère la compaction.
Pi ne résume pas toute la conversation. Il garde les ~20 000 derniers tokens intacts - mot pour mot - et ne résume que ce qui précède. Les messages récents survivent tels quels. Les anciens sont compressés en un résumé structuré.
Je ne sais pas si Claude Code fait pareil (je crois pas). Mais même sans ça, la pratique tient. Un compact, c'est un appel à un LLM. Et, les LLMs ont la fâcheuse tendance à mieux retenir ce qui est au début et à la fin d'un texte, et à oublier ce qui traîne au milieu - c'est le phénomène Lost in the Middle. Donc reformuler les décisions clés juste avant de compacter, c'est les remonter en fin de conversation. Là où le modèle les verra le mieux quand il générera son résumé.