Je ne suis pas codeur et je n’essaierais pas de prétendre le contraire.
Bien sûr, j’ai passé des décennies dans les domaines de la technologie et de la finance, mais mon travail a toujours été de comprendre où vont les choses. Cela me place dans la tâche de repérer les factors d’inflexion, et non d’écrire du code.
Mais cela signifie que je peux faire la différence entre une technologie intéressante et une technologie qui change véritablement la façon dont le travail est effectué. Et la réaction que je constate autour des derniers outils d’intelligence artificielle d’Anthropic m’excite incroyablement à propos de ces derniers.
Anthropic appelle ce produit Claude Code.
Il fonctionne sur le modèle Claude Opus 4.5 de la société et est conçu pour permettre à l’IA de fonctionner dans un environnement de développement réel au lieu de simplement répondre aux questions dans une fenêtre de dialogue. Claude Code peut lire et modifier des fichiers, raisonner sur une base de code, exécuter des assessments, déboguer les erreurs et continuer à itérer vers une answer fonctionnelle.
Ce qui me frappe vraiment, c’est la façon dont les gens parlent de son utilisation.
Ils disent qu’ils sont capables de le laisser fonctionner, et lorsqu’ils reviennent plus tard, ils constatent que le travail a déjà avancé de plusieurs manières. Si une première tentative échoue, Claude ne se fige pas. Il répare ce qui est cassé et proceed.
Ce comportement confirme quelque selected que je remarque depuis quelques mois.
Les ingrédients de base de l’intelligence artificielle générale ont commencé à se mettre en place et ils commencent à se renforcer mutuellement.
De la dialog au travail
Quand je parle d’intelligence générale, je ne parle pas de conscience ou de créativité. Je veux dire une IA qui peut poursuivre un objectif au fil du temps, corriger ses propres erreurs et décider quoi faire ensuite sans avoir besoin d’une course constante.
C’est la différence entre un logiciel qui répond aux questions et un logiciel qui fait réellement le travail.
Le premier ingrédient de l’intelligence générale est la connaissance.
C’est ce qui a alimenté le ChatGPT unique lorsqu’il a fait son apparition fin 2022. Les modèles formés sur de grandes quantités de texte sont soudainement devenus suffisamment bons pour répondre de manière à ce qu’interagir avec eux semble naturel. Ils pouvaient répondre aux questions, expliquer des idées et générer un langage suffisamment efficace pour changer les attentes en matière d’intelligence artificielle pratiquement du jour au lendemain.
Mais ces premiers systèmes d’IA étaient encore fondamentalement réactifs.
Ils ont répondu à une invite, ont produit une réponse puis se sont arrêtés. Chaque interplay était un nouveau départ. Cela reste utile et souvent impressionnant, mais il est limité par l’incapacité de faire avancer les travaux par lui-même.
Pour passer à l’étape suivante, l’IA avait besoin d’une pincée du deuxième ingrédient : le raisonnement.

Au cours des deux années suivantes, l’IA a continué de s’améliorer à mesure que plusieurs éléments s’amélioraient en même temps. Les modèles sont devenus plus grands et la formation s’est améliorée. Les systèmes sont également devenus meilleurs dans leur capacité à suivre les directions et à utiliser les outils.
La véritable inflexion, cependant, s’est produite lorsque le raisonnement explicite est entré en scène.
Fin 2024, avec la sortie de modèles comme l’o1 d’OpenAI, les systèmes d’IA sont devenus sensiblement meilleurs en matière de logique en plusieurs étapes, de mathématiques et de débogage.
Cette amélioration est apparue presque immédiatement.
Les recherches de GitHub ont révélé que les développeurs utilisant des assistants de codage IA accomplissaient les tâches environ 30 % plus rapidement en moyenne, avec des positive aspects encore plus importants sur le travail de routine ou répétitif.
Et pour la première fois, ces systèmes ne produisaient pas seulement des réponses fluides. Ils résolvaient les problèmes de manière fiable.
Mais même alors, la façon dont les gens utilisaient l’IA n’a pas vraiment changé. Vous avez posé une query, obtenu une réponse et êtes passé à autre selected.
Mais cela change maintenant avec l’ajout d’un troisième ingrédient : l’itération.

C’est ce qui émerge avec des outils comme Claude Code et d’autres brokers à lengthy horizon conçus pour fonctionner sur de plus longues périodes.
Ces systèmes ne se contentent pas de réagir et de s’arrêter. Ils résolvent un problème, testent le résultat, remarquent ce qui s’est cassé, révisent leur approche et continuent sans qu’on leur dise exactement quoi faire ensuite.
Généralement, les personnes intelligentes peuvent travailler de manière autonome pendant des heures, commettre et corriger leurs erreurs et déterminer quoi faire ensuite sans course constante.
Pour la première fois, les logiciels commencent à se comporter de la même manière.
Et les chercheurs ont mesuré cette capacité directement. Des groupes comme METR suivent la durée pendant laquelle les systèmes d’IA peuvent poursuivre un objectif de manière fiable sans intervention humaine, et la tendance qu’ils observent est exponentielle.

Picture : metr.org
La durée des tâches que ces systèmes peuvent gérer double environ tous les sept mois.
Si nous retraçons l’exponentielle, les brokers devraient être capables de travailler de manière fiable pour accomplir des tâches qui prendront une journée complète aux consultants humains d’ici 2028, une année complète d’ici 2034 et un siècle complet d’ici 2037.
Pour être clair, je ne parle pas de superintelligence artificielle (ASI). Cela vient plus tard.
Ce qui vient en premier, c’est la persévérance, la correction des erreurs et le suivi. Ces caractéristiques transformeront nos outils d’IA en quelque selected de plus proche des collègues.
Claude en est l’exemple le plus clair à l’heure actuelle, mais il n’est pas le seul. OpenAI, Google et d’autres se dirigent clairement vers le même kind de capacité à lengthy terme.
Consultez cet article récent d’un développeur parlant du Codex, le système d’OpenAI conçu pour des tâches de codage similaires à lengthy terme.

Mais Claude Code se démarque aujourd’hui par sa capacité à être un partenaire interactif, collaboratif et conversationnel. Et l’accent mis par Anthropic sur la sécurité et la contrôlabilité deviendra encore plus pertinent à mesure que les systèmes fonctionneront plus longtemps et avec moins de surveillance directe.
Lorsqu’un modèle fonctionne pendant quelques secondes, les erreurs sont faciles à détecter. Mais quand cela dure des heures, les enjeux sont bien plus importants.
Claude Code fait monter les enchères.
Voici mon avis
Il n’est pas nécessaire de croire que l’intelligence artificielle générale est à nos portes pour comprendre ce qui se passe ici. Les systèmes d’IA capables de planifier, d’exécuter et de réviser le travail sur des périodes prolongées représentent un véritable changement dans la façon dont le travail et la productivité évoluent.
Pensez-y de cette façon.
Les functions d’IA de 2023 et 2024 ont été bavardes. Certains étaient des causeurs très sophistiqués. Mais leur impression était limité automotive ils nécessitaient toujours la contribution constante des gens.
Les functions d’IA de 2026 et 2027 seront concrètes.
Ils se sentiront moins comme des logiciels que comme des collègues. Au lieu d’utiliser l’IA plusieurs fois par jour, les gens l’utiliseront toute la journée. Plusieurs brokers travailleront en même temps. Et au lieu de gagner quelques heures, les utilisateurs passeront du travail eux-mêmes à la gestion d’équipes de systèmes intelligents.
En d’autres termes, l’objectif n’est plus de meilleures réponses.
Cela fait du vrai travail.
Demain, je vous montrerai remark les chercheurs mesurent ce changement et pourquoi la courbe s’est fortement courbée vers le haut.
Salutations,
Ian KingStratège en chef, Banyan Hill Publishing
Be aware de l’éditeur : nous serions ravis d’avoir de vos nouvelles !
Si vous souhaitez partager vos réflexions ou options sur le Each day Disruptor, ou s’il y a des sujets spécifiques que vous souhaiteriez que nous abordions, envoyez simplement un e-mail à dailydisruptor@banyanhill.com.
Ne vous inquiétez pas, nous ne révélerons pas votre nom complet si nous publions une réponse. Alors n’hésitez pas à commenter !
















