Jeff, le brief IA pédagogique

L'essentiel en 4 minutes. Direct, simple, sans blabla.
Envoyé le vendredi à 7h

Membres existants, connectez-vous :

Exemple de brief récent

📰 L'actu

Google publie Gemma 4, ses modèles ouverts les plus capables sous Apache 2.0 : La famille de quatre modèles de 2B à 31B paramètres (blog.google) se classe 3e modèle ouvert mondial sur Arena AI et surpasse des modèles 20 fois plus gros. Optimisés pour le raisonnement et les agents, ils tournent sur mobile, supportent 140 langues et offrent un contexte de 256K tokens.

Anthropic laisse fuiter le code source de Claude Code par erreur humaine : Un fichier interne inclus dans une mise à jour a exposé 2 000 fichiers et 500 000 lignes de code (theguardian.com), le repo réécrit est devenu le plus téléchargé de l'histoire de GitHub. Après une première fuite ayant révélé l'existence du modèle interne "Mythos", cette seconde brèche embarrasse Anthropic alors que ses abonnements payants ont doublé cette année.

Microsoft compte intègrer OpenClaw et des agents personnels dans Microsoft 365 : Omar Shahine, recruté pour piloter l'intégration d'OpenClaw (x.com), a déjà livré un plugin Teams tandis que Copilot Cowork (windowscentral.com) entre en accès anticipé via le programme Frontier. Cette offensive intervient alors que seulement 3,3% des utilisateurs M365 paient pour Copilot et que Microsoft prévoit 146 milliards de dollars d'investissement IA en 2026.

Zapier exige la maîtrise de l'IA pour chaque nouvelle embauche : L'entreprise publie la V2 de son référentiel de compétences IA (zapier.com) après avoir atteint 100% d'adoption interne, imposant aux candidats de démontrer l'IA intégrée dans leur travail quotidien. Le nouveau barème ajoute la responsabilité comme quatrième pilier et oblige les managers à prouver qu'ils ont transformé les pratiques de leur équipe.

OpenAI lève 122 milliards de dollars et atteint une valorisation de 852 milliards : Cette levée de fonds record (openai.com) avec Amazon, Nvidia et SoftBank permet à l'entreprise de financer ses infrastructures malgré des pertes attendues de 14 milliards en 2026. L'entreprise génère déjà 2 milliards de dollars de revenus mensuels avec 900 millions d'utilisateurs hebdomadaires.


My prediction is that we're going to see a Challenger disaster. At some point this is going to catch up with us and it's going to be very, very, very bad.

Simon Willison

PS : En 1986, la navette Challenger a explosé 73 secondes après le décollage. Les ingénieurs savaient que les joints étaient défaillants. Mais chaque lancement réussi avait rendu le risque invisible. Willison observe le même mécanisme avec les failles de sécurité des agents IA.


💡 L'éclairage de Simon Willison

Les développeurs comme indicateurs avancés pour tous les travailleurs du savoir ?

Simon Willison, utilise le terme bellwether pour décrire la position des développeurs dans la vague IA. Le bellwether, c'est le mouton de tête du troupeau, celui dont la cloche indique la direction aux autres. Les ingénieurs logiciel occupent ce rôle parce que le code possède une propriété rare : il est vérifiable. On l'exécute, il fonctionne ou il échoue. Les agents de code peuvent donc itérer, tester, corriger en boucle. C'est ce qui rend le métier si perméable à l'automatisation par les LLMs.

Selon Willison, Les développeurs vivent aujourd'hui ce que les autres travailleurs du savoir vivront demain : la partie du travail qui prenait le + de temps ne prend plus le + de temps. Le goulet d'étranglement se déplace de la production vers le jugement, la spécification, le test. Les équipes, les carrières, les processus se recomposent autour de cette nouvelle réalité.

L'implication pour les avocats, analystes, rédacteurs, managers : la même transformation arrivera, mais avec une difficulté supplémentaire. Un essai, un dossier juridique, une analyse stratégique ne se vérifient pas en l'exécutant. Évaluer si l'IA a fait du bon travail dans ces domaines reste un problème ouvert, et largement plus dur que dans le code.

it's going to be very interesting seeing how this rolls out to other information work in the future


Parlons peu, parlons latin

Verbum sapienti

Il y a quelques semaines, je vous parlais de verbatim. Un seul mot pour dire à l'IA : montre-moi exactement ce que la source dit, pas ta reformulation.

Cette semaine, je codais avec Claude. Un script pour nettoyer des données. Et je me suis vu écrire :

"Fais un script ad hoc pour extraire les dates du CSV."

Ad hoc. Ça sort tout seul quand je code. Construis pour ce cas précis, pas générique, pas réutilisable.

Verbatim. Ad hoc. Marrant. Deux mots latins. J'y avais pas prêté attention jusque là. J'ai tiré le fil pour voir. J'ai trouvé quelques expressions intéressantes.

  • Nota bene : attention, ce qui suit est critique.
  • In extenso : donne-moi tout, sans couper.
  • Sine qua non : cette contrainte est non négociable.
  • Mutatis mutandis : adapte ce truc à un autre contexte, change juste ce qui doit l'être.

Etcetera, etcetera, etcetera.

Quand je dialogue avec l'IA, je cherche toujours ce que j'appelle le "minimum input, maximum output". Le moins de caractères possible pour le meilleur résultat.

Des mots qui compriment des intentions longues, latins ou pas. J'adore.

Simon Willison, dans l'interview citée plus haut, le dit à sa manière :

"I can look at a problem and say: this problem is a one-sentence prompt. I can use sophisticated engineering language that I've mastered over the years, which they appear to know as well, and we can collaborate incredibly effectively."

Le prompt d'une phrase. Willison regarde un bug. Une phrase lui suffit. Ce qu'il comprime en une phrase, c'est pas le bug. C'est 25 ans d'expérience.

En fin de session avec un modèle, je relis parfois mes échanges et je me demande : comment j'aurais pu arriver à ce résultat plus vite ? Avec quel concept ? Avec quel mot ? C'est un exercice que je vous conseille de faire.

Verbum sapienti sat est. Un mot suffit au sage.